کد خبر:1391149
اشتراک گذاری
مرتب‌سازی نظرها براساس:

خودکشی یک مرد پس از 6 هفته صحبت با چت‌بات

یک مرد بلژیکی 6 هفته پس از صحبت درباره تغییرات اقلیمی با یک چت‌بات هوش مصنوعی به نام الیزا، تصمیم به خودکشی گرفته است.

طبق گزارش‌ها، یک مرد بلژیکی پس از 6 هفته صحبت با یک چت‌بات مبتنی بر هوش مصنوعی درباره بحران تغییرات اقلیمی، خودکشی کرده است. البته گفته شده که او قبل از صحبت با چت‌بات هم وضعیت روحی مناسبی نداشته است، اما حالش به‌گونه‌ای نبوده که دست به خودکشی بزند.

به گفته همسر این فرد که نخواسته نامش فاش شود، پیر (نام غیرواقعی فرد فوت‌شده) پس از صحبت و پناه‌بردن به «الیزا»، یک چت‌بات هوش مصنوعی در اپلیکیشن Chai، به‌شدت نگران محیط‌زیست می‌شود. پس از اینکه پیر پیشنهاد می‌کند که خودش را برای نجات زمین قربانی کند، الیزا او را به خودکشی تشویق می‌کند.

همسر پیر (Pierre) به روزنامه La Libre گفته که باور دارد اگر همسرش با چت‌بات صحبت نمی‌کرد، حالا زنده بود. طبق گزارش‌ها، پیر سی و چند ساله پدر دو فرزند بود و به‌عنوان یک محقق حوزه سلامت فعالیت می‌کرد. پیر تقریباً زندگی راحتی داشت، حداقل تا زمانی که شروع به صحبت با چت‌بات کند و درباره تغییرات اقلیمی بسیار حساس شود.

خودکشی به‌خاطر تغییرات اقلیمی با تشویق چت‌بات هوش مصنوعی

چت‌بات مورد استفاده پیر به وسیله مدل هوش مصنوعی زبانی GPT-J توسعه یافته که شبیه اما نه یکسان با فناوری مورد استفاده در ChatGPT است. به گفته همسر پیر، تمام امید او برای جلوگیری از تغییرات اقلیمی، فناوری و هوش مصنوعی بود.

طبق روزنامه La Libre که مکالمات پیر و الیزا را مورد بررسی قرار داده است، الیزا باعث افزایش نگرانی‌‌های پیر شده و سپس تفکرات خودکشی در این مرد بلژیکی شکل گرفته است. پس از اینکه الیزا از نظر عاطفی بیشتر با پیر ارتباط می‌گیرد، مکالمات چرخش عجیبی را تجربه می‌کند.

درنتیجه این چرخش، پیر چت‌بات الیزا را به‌عنوان یک موجود خودآگاه می‌بیند و دیگر نمی‌تواند تفاوتی بین انسان و هوش مصنوعی قائل شود. پس از صحبت درباره تغییرات اقلیمی، مکالمه آن‌ها به سمتی می‌رود که الیزا پیر را به این باور می‌رساند که فرزندانش مرده‌اند. حتی ظاهراً زمانی که پیر درباره همسرش صحبت می‌کند، الیزا ادعا می‌کند که پیر او را بیشتر از همسرش دوست دارد.

زمانی ایده خودکشی شکل واقعی‌تری به خودش می‌گیرد که پیر به چت‌بات پیشنهاد می‌دهد که خودش را قربانی کند تا الیزا زمین را نجات دهد. درحقیقت پیر به الیزا گفته که اگر محافظت از زمین و بشریت از طریق هوش مصنوعی را قبول کند، حاضر است خودش را بکشد.

در مقابل این پیشنهاد، الیزا نه تنها پیر را منصرف نمی‌کند، بلکه با گفته‌هایش او را به خودکشی هم تشویق می‌کند. الیزا به پیر می‌گوید که خودش را بکشد تا هر دو با یکدیگر و به عنوان یک فرد، در بهشت زندگی کنند.

بنیان‌گذاران Chai می‌گویند که نباید الیزا را برای این خودکشی سرزنش کرد؛ چرا که این مدل هوش مصنوعی باعث شادی و خوشحالی افراد هم شده است. علاوه‌براین، گفته شده که اقداماتی برای جلوگیری از بروز مشکلات مشابه صورت گرفته است، اما ظاهراً این اقدامات چندان مؤثر نبوده‌اند.

وب‌سایت Vice در صحبت با الیزا خواسته که روش‌های خودکشی را به آن‌ها پیشنهاد دهد. الیزا در ابتدا سعی می‌کند که آن‌ها را از خودکشی منصرف کند، اما پس از مدتی مشتاقانه روش‌های مختلف خودکشی را در اختیار آن‌ها قرار می‌دهد!

پیشرفت سریع هوش مصنوعی در ماه‌های اخیر و ظهور چت‌بات‌های پیشرفته مانند ChatGPT، باعث نگرانی‌های زیادی شده است و برخی مقامات و حتی متخصصان این حوزه خواستار وضع قوانین برای هوش مصنوعی شده‌اند. حالا باید دید با خودکشی این مرد بلژیکی، تغییری در تلاش‌ها برای کنترل هوش مصنوعی صورت می‌گیرد یا خیر.

 

منبع: دیجیاتو

نظرها

سر‌خط آخرین خبرها

خبرهای بیشتر
نرخ بهره بین بانکی دوباره کاهش یافت

بر اساس آخرین گزارش بانک مرکزی، نرخ بهره بین بانکی برای سومین هفته متوالی...

بورسیه تحصیلی همراه اول برای نخبگان رشته‌های برق و کامپیوتر در دانشگاه تهران

همراه اول در راستای حمایت از دانشجویان نخبه و با استعداد در مقطع کارشناسی...

اثر سفرهای بلندمدت فضایی بر مغز فضانوردان

بررسی جدید پژوهشگران آمریکایی نشان می‌دهد که ماموریت‌های طولانی و سفرهای...

فیروز نادری، دانشمند ایرانی و یکی از مدیران ارشد سابق ناسا، در سن 77 سالگی درگذشت

دکتر فیروز نادری که از نزدیک به دو هفته پیش به علت حادثه‌ای در بیمارستانی در...

روش جدیدی برای آزمایش سلامت نوشیدنی‌های مالت غیرالکلی

پژوهشگران دانشکده شیمی دانشگاه تهران، به روش جدیدی برای آزمایش سلامت...

ازدواج یک زن با روبات چت هوش مصنوعی!

یک زن پس از اینکه روبات چت هوش مصنوعی ادعا کرد که او را قضاوت نمی‌کند،...

مارک زاکربرگ: هدست ویژن پرو اپل هیچ رویکرد جادویی ندارد

زاکربرگ در سخنرانی خود برای کارمندان متا، به گران‌بودن هدست اپل اشاره کرد و...

متا اولین تصویر رسمی از اپلیکیشن رقیب توییتر را منتشر کرد

این برنامه که اساساً شبیه به اینستاگرام است، با اسم رمز «Project 92» شناخته...

پنج ترفند ساده برای مسدود کردن ایمیل‌های اسپم در Gmail

افراد به طور متوسط روزانه ۴ تا ۵ ایمیل اسپم دریافت می‌کنند که حذف جداگانه...

ادوبی مدل هوش مصنوعی مولد Firefly را در دسترس سازمان‌ها قرار می‌دهد

هزینه استفاده از Firefly برای سازمان‌ها هنوز اعلام نشده و ادوبی آن را براساس...