هوش مصنوعی و خطری که از آن خبر نداریم/ چه چیزی در انتظار ماست؟
تینا مزدکی_در چند سال اخیر، اسم هوش مصنوعی (AI) همه جا شنیده میشود. هر مدل جدیدی که از راه میرسد، نوآوریهای باورنکردنی دارد که مدلهای قبلی را، به چالش میکشد. متخصصان، برنامهنویسان و مدیران شرکتهای هوش مصنوعی، حرفهای بزرگی درباره آینده میزنند؛ از راحت شدن کارها و افزایش عمر انسانها گرفته تا خطرهای بزرگی که ممکن است هستی بشر را تهدید کند.
اگر همه درباره هوش مصنوعی حرف میزنند، دلیلش تا حدی این است که انتشار این نوآوریها، سودهای زیادی برای شرکتهای سازنده این مدلها داشته است. اما هرچه هوش مصنوعی سریعتر، تواناتر و پیچیدهتر میشود، ممکن است این بحثهای عمومی خیلی زود به پشت درهای بسته منتقل شود. شرکتهای هوش مصنوعی بیشتر و بیشتر از مدلهایشان در داخل خود شرکت استفاده میکنند و احتمالاً بهزودی از نظر استراتژیک، ترجیح میدهند قویترین مدلهای آینده خود را فقط برای کارهای داخلی نگه دارند. این تصمیمات به ظاهر بیخطر میتوانند یک تهدید جدی برای کل جامعه باشند.
مسابقه پنهانی به سمت هوش مصنوعی عمومی (AGI)
اکثر شرکتهای بزرگ هوش مصنوعی علناً گفتهاند که میخواهند مدلهایی بسازند که در تمام کارهای فکری، به اندازه انسانها باهوش باشند. این کار میتواند تریلیونها دلار ارزش اقتصادی ایجاد کند. با این باور رایج که در مسابقه رسیدن به هوش مصنوعی عمومی (AGI)، برنده، همه چیز را میبرد؛ ممکن است مزیت رقابتی بالای مدلهای پیشرفته خیلی زود باعث شود شرکتها مدلهایشان را مخفیانه و در داخل استفاده کنند تا پیشرفت فنیشان را جلو ببرند اما در عین حال، اطلاعات کمی از این پیشرفتها را به رقبا و دنیای بیرون نشان دهند.
همین سیستمهای هوش مصنوعی امروزی هم، حتی در آزمایشهای شبیهسازی شده، اغلب رفتارهایی غیرمنتظره، ناخواسته و بد از خود نشان میدهند؛ مثلاً تهدید به باجخواهی از کاربران، وانمود کردن به هماهنگی با دستورات، یا نشان دادن رفتارهای خودحفاظتی. حالا اگر شرکتهای پیشرو شروع به پنهان کردن اطلاعات مهم کنند، جامعه دیگر حتی یک فرصت کوچک هم برای آگاهی عمومی و بررسی خوبیها و بدیها، خطرات و امنیت، و مسیر آینده این فناوری اساسی نخواهد داشت. وقتی سیستمهای پیشرفته هوش مصنوعی آینده پشت درهای بسته و شاید حتی فقط به صورت انحصاری استفاده شوند، خطرات پنهان برای جامعه میتوانند بدون هیچ نظارت یا هشداری ظاهر و پیشرفت کنند این تهدیدی است که باید از آن جلوگیری کنیم.
حلقههای بازخورد خطرناک و بینظمی
آزمایشگاههای پیشرو همین حالا هم بیشتر از سیستمهای هوش مصنوعی برای سرعت بخشیدن به کارهای تحقیق و توسعه (R&D) خود استفاده میکنند؛ مثلاً برای طراحی الگوریتمهای جدید، پیشنهاد ساختارهای کاملاً نو، یا بهینهسازی کدها. برای مثال، گوگل در سال ۲۰۲۴ تخمین زد که ۵۰٪ از کدهای آن اکنون توسط هوش مصنوعی نوشته میشود. همانطور که در تحقیقات اخیر گفته شده، سیستمهای پیشرفته هوش مصنوعی میتوانند در نهایت برای بهبود تدریجی نسلهای بعدی خودشان استفاده شوند و شاید یک «چرخه بازخورد» قوی از مدلهای هوش مصنوعی با تواناییهای بیشتر و بیشتر ایجاد کنند. این نتیجه برای شرکتهایی که میخواهند سریعتر از رقبا به هوش عمومی مصنوعی، یا حتی فرا هوش (Superintelligence) برسند، خبری عالی خواهد بود، اما تنها در صورتی که بتوانند مزیت رقابتی خود را از چشم بقیه پنهان نگه دارند.
در نگاه اول، همه اینها ممکن است بیخطر به نظر برسد؛ اما یک سیستم هوش مصنوعی که هنوز منتشر نشده، چه تهدیدی میتواند داشته باشد؟
مشکل از دو بخش است: اول، هرچه سیستمهای پیشرفته هوش مصنوعی در داخل شرکتها برای ساخت هوش مصنوعی بهتر مفیدتر میشوند، ممکن است انگیزه قوی رقابتی و اقتصادی، حتی بیشتر از امروز، باعث شود که سرعت و مزیت رقابتی بر احتیاط اولویت پیدا کند. این مسابقه خطرناک است، بهویژه اگر سیستمهای هوش مصنوعی پیشرفتهتر، توسط کارمندان شرکت استفاده شوند و در بخشهای حساس امنیتی مانند تحقیق و توسعه هوش مصنوعی بهکار گرفته شوند. این میتواند بهصورت خودکار، نقاط ضعفی را ایجاد کند که قبل از اینکه کسی بتواند رفتار کامل سیستمهای هوش مصنوعی را بفهمد، مشکلساز شوند.
دوم، بیشتر بررسیها و دخالتها روی سیستمهای هوش مصنوعی در دسترس عموم تمرکز دارند. برای سیستمهای هوش مصنوعی که در داخل شرکتها استفاده میشوند، درباره اینکه چه کسی به آنها دسترسی خاص دارد یا برای چه کارهایی از آنها استفاده میشود، اغلب یا اطلاعات بسیار کمی وجود دارد یا هیچ اطلاعاتی وجود ندارد. دقیقتر بگوییم، اطلاعات کمی درباره تواناییهای آنها، اینکه آیا رفتارهای بدی از خود نشان میدهند، اینکه آیا با مکانیزمهای نظارتی مناسب و محافظتهای لازم کنترل میشوند، اینکه آیا میتوانند توسط کسانی که به آنها دسترسی دارند مورد سوءاستفاده قرار گیرند یا اینکه مشخصات کلی خطراتشان چیست، منتشر میشود. همچنین، الزامات کافی و دقیقی وجود ندارد تا مطمئن شویم این سیستمهای هوش مصنوعی بهدقت آزمایش شدهاند و قبل از استفاده، تهدید بزرگ و زنجیرهای برای جامعه ایجاد نمیکنند.
نظارت دولتها و آمادگی برای آینده
اگر ما شرکتهای فناوری را مجبور نکنیم که اطلاعات دقیق و کافی درباره نحوه آزمایش، کنترل و استفاده داخلی از مدلهای هوش مصنوعی جدید را ارائه دهند، دولتها نمیتوانند برای سیستمهای هوش مصنوعیای که ممکن است در نهایت تواناییهایی در حد یک کشور را پیدا کنند، آماده شوند. در همین حال، تهدیدهایی که در پشت درهای بسته رشد میکنند، میتوانند بدون هشدار قبلی یا امکان دخالت، به جامعه سرایت کنند. البته، همین امروز هم نمیتوانیم به سیستمهای هوش مصنوعی فعلی اعتماد کنیم که طبق آنچه از آنها انتظار داریم، رفتار کنند، چه در داخل و چه در خارج مستقر شده باشند. با این وجود، هنوز زمان برای اقدام وجود دارد.
امروز میتوان اقدامات سادهای انجام داد. دامنه سیاستهای داوطلبانه شرکتهای هوش مصنوعی درباره ایمنی هوش مصنوعیهای پیشرفته (frontier AI) باید بهطور واضح گسترش یابد تا استفاده داخلی در شرایط پرخطر، مانند سرعت بخشیدن به تحقیق و توسعه هوش مصنوعی را نیز شامل شود. بهعنوان بخشی از این کار، استفاده داخلی باید با همان دقت استفاده خارجی بررسی شود و تشویق شود که ارزیابیهای دقیق برای شناسایی قابلیتهای خطرناک، مشخص کردن خطرات واضح، و تعیین مکانیسمهای کنترل یا حفاظتی لازم قبل از استفاده، انجام گیرد.
سازمانهای دولتی که مسئول آمادگی ملی هستند باید بهطور فعالانه از نحوه استفاده و استقرار داخلی سیستمهای هوش مصنوعی بسیار پیشرفته آگاه باشند و تمام اطلاعات حیاتی مربوط به امنیت ملی را که لازم است، دریافت کنند. این اطلاعات میتواند شامل مواردی مانند اینکه چه کسی و تحت چه شرایطی به این سیستمهای هوش مصنوعی دسترسی دارد، این سیستمها برای چه کارهایی استفاده میشوند، چه نظارتی بر آنها اعمال میشود و در صورت شکست این نظارت چه اتفاقی ممکن است بیفتد، باشد تا اطمینان حاصل شود که بین منافع اقتصادی و مالکیت فکری با منافع مشروع امنیت ملی توازن برقرار میشود.
منبع: time
۵۸۳۲۳
