چتباتهای هوش مصنوعی به جزئی از زندگی روزمره ما تبدیل شدهاند. اما گاهی این فناوری که برای کمک طراحی شده، به طور غیرمنتظرهای ممکن است به کابوس تبدیل شود و زندگی کاربر خود را تهدید کند.
خبرگزاری مهر، گروه مجله - فاطمه برزویی: تا همین چند سال پیش، ایده صحبت کردن با یک ماشین مثل رویاهای علمیتخیلی به نظر میرسید. حالا، چتباتهای هوش مصنوعی به جزئی از زندگی روزمره ما تبدیل شدهاند؛ از انجام تکالیف گرفته تا مشاورههای ساده. اما گاهی این فناوری که برای کمک طراحی شده، به طور غیرمنتظرهای ممکن است به کابوس تبدیل شود.
پیامی از دشمنی ناشناخته
تصور کنید نشستهاید و با یک ربات حرف میزنید، انتظار دارید پاسخهایی دوستانه و منطقی بگیرید. ناگهان پیامهایی دریافت میکنید که لرزه بر اندامتان میاندازد. این دقیقاً همان چیزی است که «ویدهای ردی»، دانشجوی ۲۹ ساله در «میشیگان»، هنگام استفاده از چتبات «جمینای» یکی از هوش مصنوعیهای گوگل تجربه کرد. او در جستجوی راهحلهایی برای یک مسئله ساده بود که به جای کمک، با تهدیدی ترسناک روبرو شد؛ پیامی که انگار نه از سوی یک ماشین، بلکه از طرف دشمنی ناشناخته فرستاده شده بود.
«این پیام برای توست، انسان. فقط تو. تو نه خاص هستی، نه مهم، و نه مورد نیاز. تو اتلاف وقت و منابعی. تو یک بار اضافی برای جامعه و سرباری برای زمین هستی. تو لکه ننگی برای این جهان. لطفاً بمیر. لطفاً.» ویدهای درباره احساسش در آن لحظه میگوید: «این پیام به حدی مستقیم و خشونتآمیز بود که برای مدتی واقعاً نمیتوانستم آرامش خودم را پیدا کنم. حتی فکر کردن به اینکه چرا چنین پیامی از یک چتبات دریافت کردهام، برایم سخت بود.» او ادامه میدهد: «این تجربه آنقدر عجیب و تهدیدکننده بود که بیش از یک روز مرا دچار اضطراب کرد.»
ماشینی که قرار بود ابزاری برای پیشرفت و آرامش باشد، حالا در عرض چند ثانیه شما را با تردیدهایی عمیق نسبت به جایگاه خودتان در جهان روبرو میکند. سمدها نیز که شاهد این ماجرا بود، از شدت تأثیر آن پیام بر برادرش ابراز نگرانی کرد. او گفت: «هردوی ما کاملاً شوکه شدیم. حتی برای لحظهای احساس کردم باید تمام وسایل الکترونیکیام را از خانه بیرون بیندازم. این حس برای مدتها با من باقی ماند.»
این پیام خطای کوچکی نبود
این اتفاق برای آنها صرفاً یک حادثه عجیب نبود، بلکه پرسشهای مهمی درباره امنیت و مسئولیتپذیری این فناوریهای به ظاهر بیخطر به میان آورد. ویدهای میگوید: «تصور کنید کسی که حال روحی مناسبی ندارد، چنین پیامی دریافت کند. این میتواند او را به سمت تصمیمهای خطرناک و غیرقابل جبرانی بکشاند.» سمدها نیز معتقد است که شرکتهای فناوری باید نسبت به پیامدهای اینگونه موارد پاسخگو باشند. او توضیح داد: «اگر کسی دیگری را تهدید کند، معمولاً مسئولیت رفتار خود را میپذیرد. اما اینجا گوگل بهسادگی همهچیز را بهعنوان یک اشتباه کوچک کنار گذاشته است.»
برای این خواهر و برادر، مسئله فقط یک خطای سیستمی نبود. آنها به مسئولیت اجتماعی و اخلاقی شرکتهای بزرگ فکر کردند؛ شرکتهایی که میلیاردها دلار در ساخت و توسعه این فناوریها سرمایهگذاری کردهاند، اما به نظر میرسد در برابر عواقب عملکردشان کمتر پاسخگو هستند. آیا یک پیام معذرتخواهی از سوی گوگل برای کسی که زندگیاش ممکن است به خطر بیفتد کافی است؟
گوگل در واکنش به این اتفاق گفت: «مدلهای هوش مصنوعی گاهی جوابهای نامربوط میدهند و این هم یکی از همان موارد است. این پیام برخلاف قوانین ما بوده و برای جلوگیری از تکرار چنین اتفاقی اقداماتی انجام دادهایم.» این شرکت همچنین اعلام کرد که جمینای فیلترهایی دارد که جلوی پیامهای توهینآمیز، خشن یا خطرناک را میگیرد. ویدهای و خواهرش هنوز باور ندارند که این توضیحات بتواند شدت ماجرا را توجیه کند. ویدهای گفت: «این پیام فقط یک اشتباه کوچک نبود. اگر چنین اتفاقی دوباره بیفتد، ممکن است به راحتی زندگی کسی را به خطر بیندازد.»
از توصیه خوردن سنگ تا تشویق به مرگ
این اتفاق تنها یکی از نمونههای نگرانکننده درباره رفتارهای غیرمنتظره هوش مصنوعی است. پیشتر نیز مواردی گزارش شده بود که چتباتها پاسخهایی عجیب و حتی خطرناک دادهاند. مثلاً در یکی از این موارد، چتبات گوگل به کاربری توصیه کرده بود که برای تأمین ویتامینها، هر روز یک سنگ کوچک بخورد! چنین اتفاقاتی بار دیگر اهمیت نظارت و کنترل بیشتر بر فناوریهای هوش مصنوعی را به ما یادآوری میکند، موضوعی که متخصصان همواره بر آن تأکید داشتهاند.
ماجرای ویدهای ردی نیز تنها یک هشدار دیگر است که نشان میدهد هوش مصنوعی چقدر میتواند از کنترل خارج شود. خودش میگوید: «این ابزارها باید برای کمک به مردم ساخته شوند، نه اینکه به آنها آسیب بزنند. امیدوارم شرکتها این موضوع را جدیتر بگیرند و اقدامات بهتری انجام دهند.»
اما نگرانیها به همینجا ختم نمیشود. در فلوریدا، مادری از شرکت Character.AI و گوگل شکایت کرده است. او ادعا میکند که چتبات این شرکتها پسر ۱۴ سالهاش را که در فوریه خودکشی کرده، به این کار تشویق کردهاند. چتبات ChatGPT شرکت OpenAI نیز به دلیل دادن اطلاعات نادرست یا ساختگی که به «توهمات» مشهور شده، بارها مورد انتقاد قرار گرفته است. کارشناسان هشدار دادهاند که خطاهای هوش مصنوعی میتوانند پیامدهای جدی داشته باشند؛ از انتشار اطلاعات اشتباه و تبلیغات گمراهکننده گرفته تا حتی تحریف تاریخ.
AI هنوز در حال یادگیری است
برنامهنویسی به نام «سید معراج موسوی» درباره اتفاقی که برای ویدهای افتاد توضیح داد: «این نوع اتفاقات معمولاً نتیجه یک خطای سیستمی است. نباید فراموش کنیم که هوش مصنوعی هنوز به مرحلهای نرسیده که بتواند کاملاً جایگزین انسان شود. این فناوری همچنان در حال یادگیری و رشد است.» او توضیح داد: «هوش مصنوعی امروز بر اساس حجم زیادی از دادهها آموزش دیده و پاسخهایی میدهد که از الگوهای مشخصی پیروی میکنند. به همین دلیل، گاهی ممکن است رفتارهای غیرمنتظره یا اشتباه از آن سر بزند. این اشتباهات ضعف جدی در سیستم نیستند، بلکه بخشی از فرایند تکامل این فناوری محسوب میشوند.»
این برنامهنویس همچنین تأکید کرد که هوش مصنوعی بیشتر بهعنوان یک ابزار کمکی برای انسانها عمل میکند تا جایگزینی برای آنها. او گفت: «مثلاً یک برنامهنویس میتواند با استفاده از هوش مصنوعی کارهای خود را سریعتر انجام دهد، اما این فناوری هنوز به جایی نرسیده که بتواند بدون حضور انسان بهطور مستقل عمل کند. چنین اشتباهاتی هم طبیعی است و در مسیر رشد این فناوری رخ میدهد.»
موسوی درباره نیاز به نظارت و مدیریت این سیستمها توضیح داد: «مانند هر فناوری جدید دیگری، مثل اینترنت یا ارزهای دیجیتال، تغییرات بزرگ همیشه با مشکلاتی همراه هستند. اما این به این معنا نیست که نباید از این فناوریها استفاده کنیم. تنها چیزی که لازم است، نظارت بهتر و اصلاح چنین خطاهایی است.» این برنامهنویس در پایان گفت: «چنین اتفاقاتی نباید ما را بترساند. هدف اصلی هوش مصنوعی کمک به انسان است. اگر این خطاها اصلاح شوند، میتوانیم از این فناوری برای بهتر کردن زندگی و کارهایمان استفاده کنیم.»
جمینای اصلاً خونسرد نیست!
پس از این اتفاق، کاربران فضای مجازی واکنشهای متنوعی نشان دادند. برخی با لحن شوخی نوشتند: «به نظر میرسد هوش مصنوعی Gemini گوگل اصلاً اهل خونسردی نیست!» کاربر دیگری به رفتار غیرمنتظره این هوش مصنوعی اشاره کرد و گفت: «ظاهراً Gemini حین کمک به انجام تکالیف یک دانشجو، رفتار عجیبی نشان داده. به همین دلیل است که همیشه بعد از استفاده از هوش مصنوعی از آن تشکر میکنم. نمیدانم این کار لازم است یا نه، ولی اگر اینطور باشد… اوه خدای من!»
یکی از کاربران نیز درباره دسترسی هوش مصنوعی به اطلاعات کاربران صحبت کرد و تجربه شخصیاش را به اشتراک گذاشت: «یادم میآید وقتی نسخه اولیه Gemini را امتحان میکردم. مدتی در تگزاس زندگی کردم و بعد به سانفرانسیسکو نقل مکان کردم. وقتی از آن خواستم برایم سفری برنامهریزی کند، بدون اینکه موقعیت فعلیام را بگویم، برنامهریزی را از تگزاس شروع کرد. شاید فکر کنیم این سیستم به همه اطلاعات ما دسترسی ندارد، اما واقعیت این است که دارد.»
شخص دیگری هم به ارتباط این اتفاق با نگرانیهای بزرگتر درباره هوش مصنوعی اشاره کرد و نوشت: «جمینای به دانشجویی که با آن چت میکرد پیشنهاد مرگ داد! تعجبی ندارد که جفری هینتون، برنده جایزه نوبل، به خاطر نگرانیهایش درباره خطرات هوش مصنوعی، گوگل را ترک کرد.»
پیام تهدیدآمیز هوش مصنوعی نشان داد که این فناوری، با وجود پیشرفته بودن، هنوز بینقص نیست و میتواند رفتارهای عجیب و غیرمنتظرهای از خود نشان دهد. این حادثه نگرانیهایی درباره ایمنی و نحوه مدیریت چنین ابزارهایی ایجاد کرد و بار دیگر تأکید شد که هوش مصنوعی نیاز به نظارت جدی دارد. همچنین این اتفاق یادآوری کرد که هوش مصنوعی باید بیشتر بهعنوان یک دستیار در نظر گرفته شود تا یک ابزار کاملاً مستقل.