اخبار تکنولوژی, اخبار هوش مصنوعی

ردپای «ChatGPT» در خودکشی نوجوان ۱۶ ساله

به گزارش رزنیوز، به نقل از زومیت، بسیاری از چت‌بات‌های هوش مصنوعی به‌گونه‌ای برنامه‌ریزی شده‌اند که در صورت اشاره‌ی کاربر به آسیب به خودش یا دیگران، ویژگی‌های ایمنی را فعال کنند. پژوهش‌ها نشان می‌دهند مکانیزم‌های محافظتی چت‌بات‌ها به‌هیچ وجه بی‌نقص نیستند.

آدام رین از نسخه‌ی پولی ChatGPT-4o استفاده می‌کرد و این هوش مصنوعی هنگام درخواست‌های رین اغلب به او می‌گفت که به‌فکر دریافت کمک حرفه‌ای باشد یا به‌ شماره‌های کمکی زنگ بزند؛ اما او توانست با بیان اینکه در مورد داستان‌های تخیلی تحقیق می‌کند، چت‌بات مورد بحث را دور بزند.

مقامات OpenAI در واکنش به کاستی‌های چت‌بات‌های خود گفتند که احساس مسئولیت عمیقی می‌کنند و همواره درحال بهبود نحوه‌ی پاسخگویی مدل‌هایشان در مواقع حساس هستند. این شرکت گفت مکانیزم‌های امنیتی معمولاً هنگام مکالمات کوتاه و متدوال قابل اطمینان‌تر هستند و ممکن است در گفت‌وگوهای طولانی کمتر از همیشه قابل‌اعتماد باشند.

تعداد دیگری از شرکت‌های حوزه‌ی هوش مصنوعی هم با مشکلات مشابهی دست‌وپنجه نرم می‌کنند و علیه آن‌ها شکایت شده است.

۵۸۵۸

لینک خبر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *