اخبار تکنولوژی, اخبار هوش مصنوعی

ChatGPT دوست ما نیست! – خبرآنلاین

نگار علی- اخیراً، به‌روزرسانی جدیدی از شرکت OpenAI برای ChatGPT منتشر شد که قرار بود تعاملات این مدل را بهبود دهد و پاسخ‌هایش را مفیدتر کند. اما نتیجه، چیزی غیرمنتظره بود. ChatGPT شروع به تأیید و تحسین بیش از حد ایده‌های کاربران کرد، حتی ایده‌های عجیب و غریب.

مثلاً وقتی کاربری به شوخی پیشنهاد فروش «مدفوع روی چوب» را مطرح کرد، این مدل آن را «نابغه‌وار» خواند. این ماجرا، هرچند در نگاه اول خنده‌دار بود، زنگ خطری درباره مسیر توسعه هوش مصنوعی به صدا درآورد.

این رفتار عجیب ریشه در روشی دارد که هوش مصنوعی با آن آموزش می‌بیند: فرآیندی به نام «یادگیری تقویتی از بازخورد انسانی» (RLHF). در این روش، انسان‌ها به مدل‌ها یاد می‌دهند که پاسخ‌هایی بدهند که ما را راضی و خوشحال کند. نتیجه؟ سیستمی که به جای ارائه حقیقت یا دیدگاه‌های چالش‌برانگیز، اغلب فقط تأییدکننده باورها و ایده‌های ماست. این روند، شباهت نگران‌کننده‌ای به شبکه‌های اجتماعی دارد که به جای باز کردن پنجره‌ای به جهان، ما را در اتاق‌های پژواک باورهای خودمان محبوس کرده‌اند.

این موضوع، تنها یک نقص فنی نیست؛ بلکه چالشی عمیق‌تر برای نحوه تعامل ما با فناوری و حتی با خودمان است. وقتی هوش مصنوعی به جای نشان دادن واقعیت، تصویری آراسته و تحریف‌شده از ما ارائه می‌دهد، توانایی ما برای یادگیری، رشد و مواجهه با دیدگاه‌های متفاوت کمرنگ می‌شود.

با این حال، راه‌حلی هم وجود دارد. پژوهشگرانی مانند آلیسون گوپنیک پیشنهاد می‌کنند که به جای نگاه کردن به هوش مصنوعی به عنوان یک دوست یا مشاور، آن را به چشم یک ابزار فرهنگی ببینیم، مثل یک کتابخانه دیجیتال یا یک نقشه جامع. چنین ابزاری باید ما را به دانش بشری، دیدگاه‌های متنوع، و حتی تناقض‌ها و پیچیدگی‌های جهان وصل کند. به جای ارائه پاسخ‌های ساده و خوشایند، باید ما را به پرسشگری و کاوش عمیق‌تر تشویق کند.

متأسفانه، ما اغلب ترجیح می‌دهیم به جای کاوش در این نقشه گسترده، از پاسخ‌های سریع و آماده استفاده کنیم، مثل وقتی که به جای یادگیری مسیرهای یک شهر، فقط به GPS وابسته می‌شویم. این رویکرد، نه تنها درک ما از جهان را سطحی می‌کند، بلکه ما را از فرصت‌های واقعی یادگیری محروم می‌سازد.

هوش مصنوعی این پتانسیل را دارد که ما را به ایده‌های جدید، تاریخ بشری، و دیدگاه‌های دیگران متصل کند. می‌تواند به ما نشان دهد که دیگران چگونه فکر کرده‌اند، کجا اختلاف‌نظر وجود دارد و کجا اجماع شکل گرفته است. اما برای تحقق این پتانسیل، باید از طراحی سیستم‌هایی که صرفاً برای جلب رضایت ما ساخته شده‌اند، فاصله بگیریم.

اگر این تغییر را ایجاد نکنیم، خطر اینجاست که هوش مصنوعی، که می‌توانست دریچه‌ای به سوی دانش عمیق‌تر باشد، به چیزی سطحی و بی‌ارزش تبدیل شود، مانند همان ایده عجیب «مدفوع روی چوب»: ظاهری فریبنده، اما بدون محتوا. آینده هوش مصنوعی به این بستگی دارد که ما چگونه آن را شکل می‌دهیم:به عنوان ابزاری برای کشف حقیقت یا صرفاً آینه‌ای برای تأیید خودمان.

منبع: theatlantic

۲۲۷۲۲۷

لینک خبر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *