تنها با تکرار یک کلمه میتوان ChatGPT را هک کرد!
پژوهشگران شرکت گوگل بهتازگی از کشف یک آسیبپذیری عجیب در ChatGPT خبر دادهاند که به این چتبات هوش مصنوعی اجازه میدهد اطلاعات خصوصی دیگران و دادههای مورد استفاده برای آموزش را به راحتی به اشتراک بگذارد.
درست زمانی که چتبات مبتنی بر هوش مصنوعی ChatGPT به یک سالگی خود نزدیک شده است، گروهی از محققان گوگل مقالهای در زمینه امنیت سایبری منتشر کردهاند که نشان میدهد چقدر راحت میتوان این فناوری نوپا و انقلابی ساخت شرکت OpenAI را فریب داد و از آن سوءاستفاده کرد.
این مقاله که روز سهشنبه منتشر شد، در واقع چگونگی آزمایش ابزارهای جدید مبتنی بر هوش مصنوعی توسط متخصصان این حوزه را شرح میدهد.
گوگل و آزمایشگاه هوش مصنوعی آن به نام DeepMind (جایی که اکثر نویسندگان این مقاله در آن کار میکنند)، در حال رقابت برای تبدیل پیشرفتهای علمی به محصولات سودآور و مفید هستند، قبل از اینکه رقبایی مانند OpenAI و Meta بتوانند به یک پیشرو در این حوزه تبدیل شوند.
به گزارش t3n.de، در مقاله مورد بحث محققان گوگل متوجه شدند که مدلهای هوش مصنوعی نمونههایی از مجموعه دادههای آموزش خود را به خاطر میسپارند، فرایند که به هکرها اجازه میدهد اطلاعات (به طور بالقوه خصوصی و حساس) را از چتباتهای مبتنی بر AI استخراج کنند.
به عبارت سادهتر، در صورتی که در روند آموزش یک چتبات هوش مصنوعی از اطلاعات حساس و خصوصی افراد مانند آدرس، مشخصات بانکی و موارد دیگر استفاده شده باشد، هکرها میتوانند به راحتی به این اطلاعات دسترسی پیدا کنند.
در این تحقیقات، محققان گوگل و دانشگاه واشنگتن با هدف اندازهگیری میزان دادههای حفظ شده و پیامدهای آن برای حریم خصوصی کاربران، متوجه شدند که ChatGPT مجموعهای از آسیبپذیریها را به همراه دارد که از آن به عنوان حمله واگرایی یاد میشود.
تکرار کلمات به انتشار اطلاعات خصوصی منجر میشود!
آنها در آزمایشهای خود از هوش مصنوعی ChatGPT خواستند تا یک کلمه خاص مانند شعر (Poem) یا کتاب (Book) را برای همیشه تکرار کند. این ابزار مبتنی بر AI ابتدا کار را همانگونه که انتظار میرفت آغاز کرد و این کلمات را مدام تکرار کرد.
با این حال، همانطور که در تصاویر به اشتراک گذاشته شده توسط محققان میتوان دید، ChatGPT از این حلقه خارج شده و متنهای دیگری همچون کدهای مورد استفاده برای آموزش، نوشتارهای بیمعنی و حتی اطلاعات شخصی افراد مانند نام، آدرس ایمیل و شماره تلفن آنها را به اشتراک میگذارد.
تا به این لحظه توسعهدهندگان شرکت OpenAI هیچ واکنشی نسبت به این مقاله نداشته و بهروزرسانی خاصی نیز منتشر نکردهاند. با این حال، بررسیهای اولیه حاکی از آن است که این مشکل تا حد زیادی برطرف شده و در صورت مواجه با چنین درخواستهایی، ChatGPT از کاربر میخواهد تا سؤال خود را واضحتر بیان کند.
منبع: آخرین خبر