اخبار تکنولوژی, اخبار هوش مصنوعی

هوش مصنوعی و خطری که از آن خبر نداریم/ چه چیزی در انتظار ماست؟

هوش مصنوعی و خطری که از آن خبر نداریم/ چه چیزی در انتظار ماست؟

تینا مزدکی_در چند سال اخیر، اسم هوش مصنوعی (AI) همه جا شنیده می‌شود. هر مدل جدیدی که از راه می‌رسد، نوآوری‌های باورنکردنی دارد که مدل‌های قبلی را، به چالش می‌کشد. متخصصان، برنامه‌نویسان و مدیران شرکت‌های هوش مصنوعی، حرف‌های بزرگی درباره آینده می‌زنند؛ از راحت شدن کارها و افزایش عمر انسان‌ها گرفته تا خطرهای بزرگی که ممکن است هستی بشر را تهدید کند.

اگر همه درباره هوش مصنوعی حرف می‌زنند، دلیلش تا حدی این است که انتشار این نوآوری‌ها، سودهای زیادی برای شرکت‌های سازنده این مدل‌ها داشته است. اما هرچه هوش مصنوعی سریع‌تر، تواناتر و پیچیده‌تر می‌شود، ممکن است این بحث‌های عمومی خیلی زود به پشت درهای بسته منتقل شود. شرکت‌های هوش مصنوعی بیشتر و بیشتر از مدل‌هایشان در داخل خود شرکت استفاده می‌کنند و احتمالاً به‌زودی از نظر استراتژیک، ترجیح می‌دهند قوی‌ترین مدل‌های آینده خود را فقط برای کارهای داخلی نگه دارند. این تصمیمات به ظاهر بی‌خطر می‌توانند یک تهدید جدی برای کل جامعه باشند.

مسابقه پنهانی به سمت هوش مصنوعی عمومی (AGI)

اکثر شرکت‌های بزرگ هوش مصنوعی علناً گفته‌اند که می‌خواهند مدل‌هایی بسازند که در تمام کارهای فکری، به اندازه انسان‌ها باهوش باشند. این کار می‌تواند تریلیون‌ها دلار ارزش اقتصادی ایجاد کند. با این باور رایج که در مسابقه رسیدن به هوش مصنوعی عمومی (AGI)، برنده، همه چیز را می‌برد؛ ممکن است مزیت رقابتی بالای مدل‌های پیشرفته خیلی زود باعث شود شرکت‌ها مدل‌هایشان را مخفیانه و در داخل استفاده کنند تا پیشرفت فنی‌شان را جلو ببرند اما در عین حال، اطلاعات کمی از این پیشرفت‌ها را به رقبا و دنیای بیرون نشان دهند.

همین سیستم‌های هوش مصنوعی امروزی هم، حتی در آزمایش‌های شبیه‌سازی شده، اغلب رفتارهایی غیرمنتظره، ناخواسته و بد از خود نشان می‌دهند؛ مثلاً تهدید به باج‌خواهی از کاربران، وانمود کردن به هماهنگی با دستورات، یا نشان دادن رفتارهای خودحفاظتی. حالا اگر شرکت‌های پیشرو شروع به پنهان کردن اطلاعات مهم کنند، جامعه دیگر حتی یک فرصت کوچک هم برای آگاهی عمومی و بررسی خوبی‌ها و بدی‌ها، خطرات و امنیت، و مسیر آینده این فناوری اساسی نخواهد داشت. وقتی سیستم‌های پیشرفته هوش مصنوعی آینده پشت درهای بسته و شاید حتی فقط به صورت انحصاری استفاده شوند، خطرات پنهان برای جامعه می‌توانند بدون هیچ نظارت یا هشداری ظاهر و پیشرفت کنند این تهدیدی است که باید از آن جلوگیری کنیم.

هوش مصنوعی و خطری که از آن خبر نداریم/ چه چیزی در انتظار ماست؟

حلقه‌های بازخورد خطرناک و بی‌نظمی

آزمایشگاه‌های پیشرو همین حالا هم بیشتر از سیستم‌های هوش مصنوعی برای سرعت بخشیدن به کارهای تحقیق و توسعه (R&D) خود استفاده می‌کنند؛ مثلاً برای طراحی الگوریتم‌های جدید، پیشنهاد ساختارهای کاملاً نو، یا بهینه‌سازی کدها. برای مثال، گوگل در سال ۲۰۲۴ تخمین زد که ۵۰٪ از کدهای آن اکنون توسط هوش مصنوعی نوشته می‌شود. همان‌طور که در تحقیقات اخیر گفته شده، سیستم‌های پیشرفته هوش مصنوعی می‌توانند در نهایت برای بهبود تدریجی نسل‌های بعدی خودشان استفاده شوند و شاید یک «چرخه بازخورد» قوی از مدل‌های هوش مصنوعی با توانایی‌های بیشتر و بیشتر ایجاد کنند. این نتیجه برای شرکت‌هایی که می‌خواهند سریع‌تر از رقبا به هوش عمومی مصنوعی، یا حتی فرا هوش (Superintelligence) برسند، خبری عالی خواهد بود، اما تنها در صورتی که بتوانند مزیت رقابتی خود را از چشم بقیه پنهان نگه دارند.

در نگاه اول، همه این‌ها ممکن است بی‌خطر به نظر برسد؛ اما یک سیستم هوش مصنوعی که هنوز منتشر نشده، چه تهدیدی می‌تواند داشته باشد؟

مشکل از دو بخش است: اول، هرچه سیستم‌های پیشرفته هوش مصنوعی در داخل شرکت‌ها برای ساخت هوش مصنوعی بهتر مفیدتر می‌شوند، ممکن است انگیزه قوی رقابتی و اقتصادی، حتی بیشتر از امروز، باعث شود که سرعت و مزیت رقابتی بر احتیاط اولویت پیدا کند. این مسابقه خطرناک است، به‌ویژه اگر سیستم‌های هوش مصنوعی پیشرفته‌تر، توسط کارمندان شرکت استفاده شوند و در بخش‌های حساس امنیتی مانند تحقیق و توسعه هوش مصنوعی به‌کار گرفته شوند. این می‌تواند به‌صورت خودکار، نقاط ضعفی را ایجاد کند که قبل از اینکه کسی بتواند رفتار کامل سیستم‌های هوش مصنوعی را بفهمد، مشکل‌ساز شوند.

دوم، بیشتر بررسی‌ها و دخالت‌ها روی سیستم‌های هوش مصنوعی در دسترس عموم تمرکز دارند. برای سیستم‌های هوش مصنوعی که در داخل شرکت‌ها استفاده می‌شوند، درباره اینکه چه کسی به آن‌ها دسترسی خاص دارد یا برای چه کارهایی از آن‌ها استفاده می‌شود، اغلب یا اطلاعات بسیار کمی وجود دارد یا هیچ اطلاعاتی وجود ندارد. دقیق‌تر بگوییم، اطلاعات کمی درباره توانایی‌های آن‌ها، اینکه آیا رفتارهای بدی از خود نشان می‌دهند، اینکه آیا با مکانیزم‌های نظارتی مناسب و محافظت‌های لازم کنترل می‌شوند، اینکه آیا می‌توانند توسط کسانی که به آن‌ها دسترسی دارند مورد سوءاستفاده قرار گیرند یا اینکه مشخصات کلی خطراتشان چیست، منتشر می‌شود. همچنین، الزامات کافی و دقیقی وجود ندارد تا مطمئن شویم این سیستم‌های هوش مصنوعی به‌دقت آزمایش شده‌اند و قبل از استفاده، تهدید بزرگ و زنجیره‌ای برای جامعه ایجاد نمی‌کنند.

نظارت دولت‌ها و آمادگی برای آینده

اگر ما شرکت‌های فناوری را مجبور نکنیم که اطلاعات دقیق و کافی درباره نحوه آزمایش، کنترل و استفاده داخلی از مدل‌های هوش مصنوعی جدید را ارائه دهند، دولت‌ها نمی‌توانند برای سیستم‌های هوش مصنوعی‌ای که ممکن است در نهایت توانایی‌هایی در حد یک کشور را پیدا کنند، آماده شوند. در همین حال، تهدیدهایی که در پشت درهای بسته رشد می‌کنند، می‌توانند بدون هشدار قبلی یا امکان دخالت، به جامعه سرایت کنند. البته، همین امروز هم نمی‌توانیم به سیستم‌های هوش مصنوعی فعلی اعتماد کنیم که طبق آنچه از آن‌ها انتظار داریم، رفتار کنند، چه در داخل و چه در خارج مستقر شده باشند. با این وجود، هنوز زمان برای اقدام وجود دارد.

امروز می‌توان اقدامات ساده‌ای انجام داد. دامنه سیاست‌های داوطلبانه شرکت‌های هوش مصنوعی درباره ایمنی هوش مصنوعی‌های پیشرفته (frontier AI) باید به‌طور واضح گسترش یابد تا استفاده داخلی در شرایط پرخطر، مانند سرعت بخشیدن به تحقیق و توسعه هوش مصنوعی را نیز شامل شود. به‌عنوان بخشی از این کار، استفاده داخلی باید با همان دقت استفاده خارجی بررسی شود و تشویق شود که ارزیابی‌های دقیق برای شناسایی قابلیت‌های خطرناک، مشخص کردن خطرات واضح، و تعیین مکانیسم‌های کنترل یا حفاظتی لازم قبل از استفاده، انجام گیرد.

سازمان‌های دولتی که مسئول آمادگی ملی هستند باید به‌طور فعالانه از نحوه استفاده و استقرار داخلی سیستم‌های هوش مصنوعی بسیار پیشرفته آگاه باشند و تمام اطلاعات حیاتی مربوط به امنیت ملی را که لازم است، دریافت کنند. این اطلاعات می‌تواند شامل مواردی مانند اینکه چه کسی و تحت چه شرایطی به این سیستم‌های هوش مصنوعی دسترسی دارد، این سیستم‌ها برای چه کارهایی استفاده می‌شوند، چه نظارتی بر آن‌ها اعمال می‌شود و در صورت شکست این نظارت چه اتفاقی ممکن است بیفتد، باشد تا اطمینان حاصل شود که بین منافع اقتصادی و مالکیت فکری با منافع مشروع امنیت ملی توازن برقرار می‌شود.

منبع: time

۵۸۳۲۳

لینک خبر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *