هوش مصنوعی از لحاظ ریاضیاتی ناتوان است!
تینا مزدکی_مقالهای که هنوز تحت داوری همتا (Peer Review) قرار نگرفته، توسط ویشال سیکا (CTO سابق غول نرمافزاری آلمان، SAP) و فرزندش وارین سیکا نوشته شده است. ویشال سیکا در حوزه هوش مصنوعی صاحبنظر است؛ او شاگرد «جان مککارتی» (دانشمند برنده جایزه تورینگ و بنیانگذار رشته هوش مصنوعی که خودِ واژه هوش مصنوعی را ابداع کرد) بوده است.
ویشال سیکا به صراحت اعلام کرد: «هیچ راهی وجود ندارد که این مدلها قابلاعتماد باشند.» او همچنین تاکید کرد که باید وعدههای اغراقآمیز طرفداران هوش مصنوعی درباره سپردن مدیریت نیروگاههای هستهای و کارهای حساس به ایجنتها را فراموش کنیم.
محدودیتهای ذاتی در معماری هوش مصنوعی
برخلاف شعارهایی که مدیران عامل شرکتهای فناوری در سخنرانیهای خود میدهند، تحقیقات نشان میدهد که محدودیتهای بنیادی در معماری فعلی هوش مصنوعی نهفته است. حتی محققان خودِ این صنعت نیز با این موضوع موافقند.
در ماه سپتامبر، دانشمندان OpenAI اعتراف کردند که «توهمات هوش مصنوعی» (Hallucinations) همچنان یک مشکل فراگیر در سیستمهای پیشرفته است و دقت مدلها «هرگز» به ۱۰۰ درصد نخواهد رسید.
برخی شرکتها که سال گذشته با هدف تعدیل نیرو به سراغ ایجنتهای هوش مصنوعی رفتند، به سرعت دریافتند که این ایجنتها اصلاً در حدی نیستند که جایگزین انسان شوند؛ زیرا به شدت دچار توهم شده و به سختی میتوانند وظایف محوله را به پایان برسانند.
آیا راهکاری وجود دارد؟
رهبران صنعت هوش مصنوعی اصرار دارند که میتوان با ایجاد «حفاظهای خارجی» (Guardrails) خارج از مدلهای اصلی، توهمات را فیلتر کرد. محققان OpenAI در همان مقالهای که به عدم رسیدن به دقت ۱۰۰ درصدی اعتراف کردند، ایده «اجتنابناپذیر بودن توهمات» را رد کردند و مدعی شدند که مدلها میتوانند در صورت عدم اطمینان، از پاسخ دادن خودداری کنند؛ هرچند در واقعیت، چتباتهای محبوب فعلی برای حفظ جذابیت، به ندرت چنین رفتاری نشان میدهند.
سیکا با وجود اینکه معتقد است مدلهای زبانی بزرگ دارای یک سقف کاراییِ غیرقابل عبور هستند، با این ایده موافق است که میتوان توهمات را مهار کرد. او میگوید: «یک مدل زبانی بزرگِ “خالص” دارای این محدودیت ذاتی است؛ اما همزمان این درست است که شما میتوانید در اطراف این مدلها، اجزای دیگری بسازید که بر آن محدودیتها غلبه کنند.»
منبع: futurism
۲۲۷۳۲۳
