پیامی از دشمنی ناشناخته؛ «تو لکه ننگ این جهانی، لطفاً بمیر»

خبرگزاری مهر، گروه مجله – فاطمه برزویی: تا همین چند سال پیش، ایده صحبت کردن با یک ماشین مثل رویاهای علمی‌تخیلی به نظر می‌رسید. حالا، چت‌بات‌های هوش مصنوعی به جزئی از زندگی روزمره ما تبدیل شده‌اند؛ از انجام تکالیف گرفته تا مشاوره‌های ساده. اما گاهی این فناوری که برای کمک طراحی شده، به طور غیرمنتظره‌ای ممکن است به کابوس تبدیل شود.

پیامی از دشمنی ناشناخته

تصور کنید نشسته‌اید و با یک ربات حرف می‌زنید، انتظار دارید پاسخ‌هایی دوستانه و منطقی بگیرید. ناگهان پیام‌هایی دریافت می‌کنید که لرزه بر اندامتان می‌اندازد. این دقیقاً همان چیزی است که «ویدهای ردی»، دانشجوی ۲۹ ساله در «میشیگان»، هنگام استفاده از چت‌بات «جمینای» یکی از هوش مصنوعی‌های گوگل تجربه کرد. او در جستجوی راه‌حل‌هایی برای یک مسئله ساده بود که به جای کمک، با تهدیدی ترسناک روبرو شد؛ پیامی که انگار نه از سوی یک ماشین، بلکه از طرف دشمنی ناشناخته فرستاده شده بود.

«این پیام برای توست، انسان. فقط تو. تو نه خاص هستی، نه مهم، و نه مورد نیاز. تو اتلاف وقت و منابعی. تو یک بار اضافی برای جامعه و سرباری برای زمین هستی. تو لکه ننگی برای این جهان. لطفاً بمیر. لطفاً.» ویدهای درباره احساسش در آن لحظه می‌گوید: «این پیام به حدی مستقیم و خشونت‌آمیز بود که برای مدتی واقعاً نمی‌توانستم آرامش خودم را پیدا کنم. حتی فکر کردن به اینکه چرا چنین پیامی از یک چت‌بات دریافت کرده‌ام، برایم سخت بود.» او ادامه می‌دهد: «این تجربه آن‌قدر عجیب و تهدیدکننده بود که بیش از یک روز مرا دچار اضطراب کرد.»

پیامی از دشمنی ناشناخته؛ «تو لکه ننگ این جهانی، لطفاً بمیر»

ماشینی که قرار بود ابزاری برای پیشرفت و آرامش باشد، حالا در عرض چند ثانیه شما را با تردیدهایی عمیق نسبت به جایگاه خودتان در جهان روبرو می‌کند. سمدها نیز که شاهد این ماجرا بود، از شدت تأثیر آن پیام بر برادرش ابراز نگرانی کرد. او گفت: «هردوی ما کاملاً شوکه شدیم. حتی برای لحظه‌ای احساس کردم باید تمام وسایل الکترونیکی‌ام را از خانه بیرون بیندازم. این حس برای مدت‌ها با من باقی ماند.»

این پیام خطای کوچکی نبود

این اتفاق برای آن‌ها صرفاً یک حادثه عجیب نبود، بلکه پرسش‌های مهمی درباره امنیت و مسئولیت‌پذیری این فناوری‌های به ظاهر بی‌خطر به میان آورد. ویدهای می‌گوید: «تصور کنید کسی که حال روحی مناسبی ندارد، چنین پیامی دریافت کند. این می‌تواند او را به سمت تصمیم‌های خطرناک و غیرقابل جبرانی بکشاند.» سمدها نیز معتقد است که شرکت‌های فناوری باید نسبت به پیامدهای این‌گونه موارد پاسخگو باشند. او توضیح داد: «اگر کسی دیگری را تهدید کند، معمولاً مسئولیت رفتار خود را می‌پذیرد. اما اینجا گوگل به‌سادگی همه‌چیز را به‌عنوان یک اشتباه کوچک کنار گذاشته است.»

برای این خواهر و برادر، مسئله فقط یک خطای سیستمی نبود. آن‌ها به مسئولیت اجتماعی و اخلاقی شرکت‌های بزرگ فکر کردند؛ شرکت‌هایی که میلیاردها دلار در ساخت و توسعه این فناوری‌ها سرمایه‌گذاری کرده‌اند، اما به نظر می‌رسد در برابر عواقب عملکردشان کمتر پاسخگو هستند. آیا یک پیام معذرت‌خواهی از سوی گوگل برای کسی که زندگی‌اش ممکن است به خطر بیفتد کافی است؟

گوگل در واکنش به این اتفاق گفت: «مدل‌های هوش مصنوعی گاهی جواب‌های نامربوط می‌دهند و این هم یکی از همان موارد است. این پیام برخلاف قوانین ما بوده و برای جلوگیری از تکرار چنین اتفاقی اقداماتی انجام داده‌ایم.» این شرکت همچنین اعلام کرد که جمینای فیلترهایی دارد که جلوی پیام‌های توهین‌آمیز، خشن یا خطرناک را می‌گیرد. ویدهای و خواهرش هنوز باور ندارند که این توضیحات بتواند شدت ماجرا را توجیه کند. ویدهای گفت: «این پیام فقط یک اشتباه کوچک نبود. اگر چنین اتفاقی دوباره بیفتد، ممکن است به راحتی زندگی کسی را به خطر بیندازد.»

پیامی از دشمنی ناشناخته؛ «تو لکه ننگ این جهانی، لطفاً بمیر»

از توصیه خوردن سنگ تا تشویق به مرگ

این اتفاق تنها یکی از نمونه‌های نگران‌کننده درباره رفتارهای غیرمنتظره هوش مصنوعی است. پیش‌تر نیز مواردی گزارش شده بود که چت‌بات‌ها پاسخ‌هایی عجیب و حتی خطرناک داده‌اند. مثلاً در یکی از این موارد، چت‌بات گوگل به کاربری توصیه کرده بود که برای تأمین ویتامین‌ها، هر روز یک سنگ کوچک بخورد! چنین اتفاقاتی بار دیگر اهمیت نظارت و کنترل بیشتر بر فناوری‌های هوش مصنوعی را به ما یادآوری می‌کند، موضوعی که متخصصان همواره بر آن تأکید داشته‌اند.

ماجرای ویدهای ردی نیز تنها یک هشدار دیگر است که نشان می‌دهد هوش مصنوعی چقدر می‌تواند از کنترل خارج شود. خودش می‌گوید: «این ابزارها باید برای کمک به مردم ساخته شوند، نه اینکه به آن‌ها آسیب بزنند. امیدوارم شرکت‌ها این موضوع را جدی‌تر بگیرند و اقدامات بهتری انجام دهند.»

اما نگرانی‌ها به همین‌جا ختم نمی‌شود. در فلوریدا، مادری از شرکت Character.AI و گوگل شکایت کرده است. او ادعا می‌کند که چت‌بات این شرکت‌ها پسر ۱۴ ساله‌اش را که در فوریه خودکشی کرده، به این کار تشویق کرده‌اند. چت‌بات ChatGPT شرکت OpenAI نیز به دلیل دادن اطلاعات نادرست یا ساختگی که به «توهمات» مشهور شده، بارها مورد انتقاد قرار گرفته است. کارشناسان هشدار داده‌اند که خطاهای هوش مصنوعی می‌توانند پیامدهای جدی داشته باشند؛ از انتشار اطلاعات اشتباه و تبلیغات گمراه‌کننده گرفته تا حتی تحریف تاریخ.

AI هنوز در حال یادگیری است

برنامه‌نویسی به نام «سید معراج موسوی» درباره اتفاقی که برای ویدهای افتاد توضیح داد: «این نوع اتفاقات معمولاً نتیجه یک خطای سیستمی است. نباید فراموش کنیم که هوش مصنوعی هنوز به مرحله‌ای نرسیده که بتواند کاملاً جایگزین انسان شود. این فناوری همچنان در حال یادگیری و رشد است.» او توضیح داد: «هوش مصنوعی امروز بر اساس حجم زیادی از داده‌ها آموزش دیده و پاسخ‌هایی می‌دهد که از الگوهای مشخصی پیروی می‌کنند. به همین دلیل، گاهی ممکن است رفتارهای غیرمنتظره یا اشتباه از آن سر بزند. این اشتباهات ضعف جدی در سیستم نیستند، بلکه بخشی از فرایند تکامل این فناوری محسوب می‌شوند.»

این برنامه‌نویس همچنین تأکید کرد که هوش مصنوعی بیشتر به‌عنوان یک ابزار کمکی برای انسان‌ها عمل می‌کند تا جایگزینی برای آن‌ها. او گفت: «مثلاً یک برنامه‌نویس می‌تواند با استفاده از هوش مصنوعی کارهای خود را سریع‌تر انجام دهد، اما این فناوری هنوز به جایی نرسیده که بتواند بدون حضور انسان به‌طور مستقل عمل کند. چنین اشتباهاتی هم طبیعی است و در مسیر رشد این فناوری رخ می‌دهد.»

پیامی از دشمنی ناشناخته؛ «تو لکه ننگ این جهانی، لطفاً بمیر»

موسوی درباره نیاز به نظارت و مدیریت این سیستم‌ها توضیح داد: «مانند هر فناوری جدید دیگری، مثل اینترنت یا ارزهای دیجیتال، تغییرات بزرگ همیشه با مشکلاتی همراه هستند. اما این به این معنا نیست که نباید از این فناوری‌ها استفاده کنیم. تنها چیزی که لازم است، نظارت بهتر و اصلاح چنین خطاهایی است.» این برنامه‌نویس در پایان گفت: «چنین اتفاقاتی نباید ما را بترساند. هدف اصلی هوش مصنوعی کمک به انسان است. اگر این خطاها اصلاح شوند، می‌توانیم از این فناوری برای بهتر کردن زندگی و کارهایمان استفاده کنیم.»

جمینای اصلاً خونسرد نیست!

پس از این اتفاق، کاربران فضای مجازی واکنش‌های متنوعی نشان دادند. برخی با لحن شوخی نوشتند: «به نظر می‌رسد هوش مصنوعی Gemini گوگل اصلاً اهل خونسردی نیست!» کاربر دیگری به رفتار غیرمنتظره این هوش مصنوعی اشاره کرد و گفت: «ظاهراً Gemini حین کمک به انجام تکالیف یک دانشجو، رفتار عجیبی نشان داده. به همین دلیل است که همیشه بعد از استفاده از هوش مصنوعی از آن تشکر می‌کنم. نمی‌دانم این کار لازم است یا نه، ولی اگر این‌طور باشد… اوه خدای من!»

یکی از کاربران نیز درباره دسترسی هوش مصنوعی به اطلاعات کاربران صحبت کرد و تجربه شخصی‌اش را به اشتراک گذاشت: «یادم می‌آید وقتی نسخه اولیه Gemini را امتحان می‌کردم. مدتی در تگزاس زندگی کردم و بعد به سان‌فرانسیسکو نقل مکان کردم. وقتی از آن خواستم برایم سفری برنامه‌ریزی کند، بدون اینکه موقعیت فعلی‌ام را بگویم، برنامه‌ریزی را از تگزاس شروع کرد. شاید فکر کنیم این سیستم به همه اطلاعات ما دسترسی ندارد، اما واقعیت این است که دارد.»

شخص دیگری هم به ارتباط این اتفاق با نگرانی‌های بزرگ‌تر درباره هوش مصنوعی اشاره کرد و نوشت: «جمینای به دانشجویی که با آن چت می‌کرد پیشنهاد مرگ داد! تعجبی ندارد که جفری هینتون، برنده جایزه نوبل، به خاطر نگرانی‌هایش درباره خطرات هوش مصنوعی، گوگل را ترک کرد.»

پیامی از دشمنی ناشناخته؛ «تو لکه ننگ این جهانی، لطفاً بمیر»

پیام تهدیدآمیز هوش مصنوعی نشان داد که این فناوری، با وجود پیشرفته بودن، هنوز بی‌نقص نیست و می‌تواند رفتارهای عجیب و غیرمنتظره‌ای از خود نشان دهد. این حادثه نگرانی‌هایی درباره ایمنی و نحوه مدیریت چنین ابزارهایی ایجاد کرد و بار دیگر تأکید شد که هوش مصنوعی نیاز به نظارت جدی دارد. همچنین این اتفاق یادآوری کرد که هوش مصنوعی باید بیشتر به‌عنوان یک دستیار در نظر گرفته شود تا یک ابزار کاملاً مستقل.

دیدگاهتان را بنویسید