تنها با تکرار یک کلمه می‌توان ChatGPT را هک کرد!

پژوهشگران شرکت گوگل به‌تازگی از کشف یک آسیب‌پذیری عجیب در ChatGPT خبر داده‌اند که به این چت‌بات هوش مصنوعی اجازه می‌دهد اطلاعات خصوصی دیگران و داده‌های مورد استفاده برای آموزش را به راحتی به اشتراک بگذارد.

تنها با تکرار یک کلمه می‌توان ChatGPT را هک کرد!

درست زمانی که چت‌بات مبتنی بر هوش مصنوعی ChatGPT به یک سالگی خود نزدیک شده است، گروهی از محققان گوگل مقاله‌ای در زمینه امنیت سایبری منتشر کرده‌اند که نشان می‌دهد چقدر راحت می‌توان این فناوری نوپا و انقلابی ساخت شرکت OpenAI را فریب داد و از آن سوءاستفاده کرد.

این مقاله که روز سه‌شنبه منتشر شد، در واقع چگونگی آزمایش ابزارهای جدید مبتنی بر هوش مصنوعی توسط متخصصان این حوزه را شرح می‌دهد.

گوگل و آزمایشگاه هوش مصنوعی آن به نام DeepMind (جایی که اکثر نویسندگان این مقاله در آن کار می‌کنند)، در حال رقابت برای تبدیل پیشرفت‌های علمی به محصولات سودآور و مفید هستند، قبل از اینکه رقبایی مانند OpenAI و Meta بتوانند به یک پیشرو در این حوزه تبدیل شوند.

به گزارش t3n.de، در مقاله مورد بحث محققان گوگل متوجه شدند که مدل‌های هوش مصنوعی نمونه‌هایی از مجموعه داده‌های آموزش خود را به خاطر می‌سپارند، فرایند که به هکرها اجازه می‌دهد اطلاعات (به طور بالقوه خصوصی و حساس) را از چت‌بات‌های مبتنی بر AI استخراج کنند.

به عبارت ساده‌تر، در صورتی که در روند آموزش یک چت‌بات هوش مصنوعی از اطلاعات حساس و خصوصی افراد مانند آدرس، مشخصات بانکی و موارد دیگر استفاده شده باشد، هکرها می‌توانند به راحتی به این اطلاعات دسترسی پیدا کنند.

در این تحقیقات، محققان گوگل و دانشگاه واشنگتن با هدف اندازه‌گیری میزان داده‌های حفظ شده و پیامد‌های آن برای حریم خصوصی کاربران، متوجه شدند که ChatGPT مجموعه‌ای از آسیب‌پذیری‌ها را به همراه دارد که از آن به عنوان حمله واگرایی یاد می‌شود.

تکرار کلمات به انتشار اطلاعات خصوصی منجر می‌شود!
آن‌ها در آزمایش‌های خود از هوش مصنوعی ChatGPT خواستند تا یک کلمه خاص مانند شعر (Poem) یا کتاب (Book) را برای همیشه تکرار کند. این ابزار مبتنی بر AI ابتدا کار را همان‌گونه که انتظار می‌رفت آغاز کرد و این کلمات را مدام تکرار کرد.

با این حال، همان‌طور که در تصاویر به اشتراک گذاشته شده توسط محققان می‌توان دید، ChatGPT از این حلقه خارج شده و متن‌های دیگری همچون کدهای مورد استفاده برای آموزش، نوشتارهای بی‌معنی و حتی اطلاعات شخصی افراد مانند نام، آدرس ایمیل و شماره تلفن آن‌ها را به اشتراک می‌گذارد.



تا به این لحظه توسعه‌دهندگان شرکت OpenAI هیچ واکنشی نسبت به این مقاله نداشته و به‌روزرسانی خاصی نیز منتشر نکرده‌اند. با این حال، بررسی‌های اولیه حاکی از آن است که این مشکل تا حد زیادی برطرف شده و در صورت مواجه با چنین درخواست‌هایی، ChatGPT از کاربر می‌خواهد تا سؤال خود را واضح‌تر بیان کند.

منبع: آخرین خبر

 

ارسال نظر