اخبار تکنولوژی, اخبار هوش مصنوعی

چرا پاسخ‌های هوش مصنوعی قابل اعتماد نیست؟

هوش مصنوعی تماس‌های شما را از 3 متری شنود می‌کند

به گزارش رزنیوز، به نقل از دیجیاتو، نیک تورلی»، رئیس بخش ChatGPT در OpenAI، در پادکست Decoder وب‌سایت The Verge گفت: «موضوعی که درباره قابل‌اعتماد بودن وجود دارد این است که فاصله زیادی بین دو حالت «خیلی قابل‌اعتماد» و «صددرصد قابل‌اعتماد» وجود دارد. تا زمانی که ثابت نکنیم از یک متخصص انسانی در همه حوزه‌ها قابل‌اعتمادتر هستیم، همچنان به کاربران توصیه می‌کنیم پاسخ‌ها را دوباره بررسی کنند.»

او در ادامه صحبت‌های خود گفت که مردم باید به ChatGPT نه به‌عنوان منبع اصلی حقیقت، بلکه بیشتر به‌عنوان نظر دوم نگاه کنند. تورلی همچنین هشدار داده که ابزارهای هوش مصنوعی مولد مثل ChatGPT ممکن است دچار «توهم» شوند و اطلاعاتی نمایش دهند که واقعیت ندارند. دلیلش آن است که مدل‌ها برای پیش‌بینی محتمل‌ترین پاسخ طراحی شده‌اند و هدف اصلی آنها درک حقیقت نیست.

به گفته او، این ابزار زمانی بهترین عملکرد را دارد که در کنار منابع معتبر مانند موتورهای جستجو یا داده‌های اختصاصی یک شرکت استفاده شود: «هنوز هم باور دارم که بهترین محصول مدل زبانی بزرگی است که به واقعیت متصل باشد. به‌همین دلیل جستجو را به ChatGPT اضافه کردیم و فکر می‌کنم این قابلیت تفاوت بزرگی ایجاد کرده است.»

تورلی همچنین تأکید کرده که GPT-5 در کاهش خطاها نسبت به گذشته پیشرفت بزرگی داشته است، اما هنوز با ایده‌آل فاصله دارد. او در این رابطه گفت: «مطمئنم در نهایت مشکل توهم را حل می‌کنیم، اما قطعاً نه در فصل آینده.»

با اشاره به تمام این موارد، او توصیه کرده که کاربران همیشه اطلاعات دریافت‌شده از ChatGPT یا هر چت‌بات دیگری را با منابع معتبر یا نظر کارشناسان مقایسه کنند، حتی اگر پاسخ همراه با لینک ارائه شده باشد.

۵۸۵۸

لینک خبر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *