پشتپرده عجیب پناهگاههای آخرالزمانی غولهای فناوری / زاکربرگ و دیگر میلیاردرها از چه میترسند؟
غزال زیاری: گفتهها و شنیدهها حاکی از آن است که مارک زاکربرگ، بنیانگذار سرشناس فیسبوک از سال ۲۰۱۴ در حال ساخت مجموعه عظیمی به نام Koolau Ranch در جزیره کائوآی هاوایی است.
در این مجموعه عظیم علاوه بر تجهیزات و امکانات رفاهی، یک پناهگاه نیز ساختهشده که انرژی و مواد غذایی آن بهصورت مستقل تأمین میشود. دیوار بلندی به ارتفاع دو متر، مانع از آن میشود که افراد از جاده مجاور، به پروژه دید داشته باشند و طبق گزارش مجله Wired، کارکنان این پروژه هم توافقنامههای عدم افشا (NDA) را به امضا رساندهاند تا درباره جزئیات این پروژه صحبتی نکنند.
پارسال وقتی خبرنگاران از زاکربرگ درباره این پروژه از او پرسیدند که آیا در حال ساخت یک پناهگاه آخرالزمانی است یا خیر، او قاطعانه پاسخ داد: «نه» و توضیح داد که فضای زیرزمینی حدوداً ۴۶۵ مترمربعیاش، مثل یک زیرزمین معمولی و شبیه یک پناهگاه کوچک است.
البته حتی این توضیح هم نتوانست مانع از گمانهزنیهای بیشتر شود و تصمیم زاکربرگ برای خرید یازده ملک در پالو آلتوی کالیفرنیا که زیر آن فضای زیرزمینی به مساحت ۶۵۰ مترمربعی اضافهشده هم به هیزم این آتش افزود.
نیویورکتایمز در گزارش خود به این نکته اشارهکرده که گرچه در مجوزهای ساختمانی این ملک، از عنوان “زیرزمین” استفادهشده ولی بعضی از همسایهها ملک زاکربرگ را “پناهگاه” یا حتی “غار بتمنِ میلیاردرها” مینامند. طبق گزارشها، زاکربرگ برای خرید این ملک در محله پالو آلتو، بیش از ۱۱۰ میلیون دلار هزینه کرده است.
راهکارهای اورژانسی دیگر مدیران فناوری
البته او تنها نفری نیست که چنین ملکهای زیرزمینی را خریداری کرده و گمانهزنیهای مختلفی درباره املاک زیرزمینی دیگر مدیران فناوری هم به گوش میرسد: زمینهایی با فضاهای زیرزمینی که پتانسیل تبدیل شدن به پناهگاههای لوکس چند میلیون دلاری را دارند.
رید هافمن، یکی از بنیانگذاران LinkedIn چندی پیش درباره چیزی به نام “بیمه آخرالزمان” صحبت کرد و مدعی شد که حدود نیمی از ابرثروتمندان چنین بیمهای دارند و نیوزیلند مقصد محبوبی برای ساخت خانههای امن آنهاست. حالا این سؤال مطرح میشود که آیا این افراد خود را برای جنگ، تغییرات اقلیمی، یا فاجعهای دیگری که ما از آن خبر نداریم آماده میکنند؟
نگرانیهایی که از آنها بیخبریم
چندی پیش سم آلتمن اعلام کرده بود که در صورت وقوع فاجعه جهانی، ممکن است به پیتر تیل در ملک دورافتادهای در نیوزیلند بپیوندد. در سالهای اخیر، پیشرفت شتابان هوش مصنوعی، نگرانی جدیدی به فهرست نگرانیهای وجودی بشر اضافه کرد و کارشناسان زیادی نسبت بهسرعت رشد این فناوری ابراز نگرانی کردهاند. ایلیا سوتسکِوِر، دانشمند ارشد و یکی از بنیانگذاران OpenAIهم یکی از این افراد است.
در اواسط سال ۲۰۲۳ میلادی بود که انتشار نسخه عمومی ChatGPT حسابی دنیا را به هم ریخت؛ جالب اینجاست که در همان زمان، اعضای این تیم بهسرعت روی نسخههای جدیدتر کار میکرد. کارن هائو، در کتابی در این رابطه، به این موضوع اشاره کرده که در همان تابستان، سوتسکِوِر متقاعد شده بود که دانشمندان کامپیوتر در آستانه توسعه هوش جامع مصنوعی AGI (یعنی لحظهای که ماشینها ازنظر سطح هوش با انسان برابر شوند) هستند.
در یکی از جلسات، او به همکارانش پیشنهاد کرد که پیش از عرضه چنین فناوری قدرتمندی، باید دانشمندان ارشد شرکت به فکر ساخت پناهگاهی زیرزمینی بیفتند. طبق گفته هائو، سوتسکِوِر دراینباره گفته بود: «قبل از اینکه AGI را عرضه کنیم، ما یک پناهگاه خواهیم ساخت.»
البته معلوم نیست که منظور او از “ما” دقیقاً چه کسانی بوده ولی این ماجرا از واقعیت عجیبی خبر میدهد: بسیاری از دانشمندان و مدیران ارشد فناوری که خودشان در حال ساخت پیشرفتهترین شکلهای هوش مصنوعی هستند، بهشدت از آینده آن میترسند.
ظهور هوش عمومی مصنوعی (AGI) و ترس از آینده
حالا این بحث مطرح است که آیا باید واقعا نگران ظهور هوش جامع مصنوعی (AGI) باشیم؟ دراینبین، رهبران فناوری مدعی هستند که AGI بهزودی از راه خواهد رسید. مثلاً سم آلتمن، مدیرعامل OpenAIدر دسامبر سال ۲۰۲۴ گفته بود: «هوش عمومی مصنوعی زودتر از آنچه اکثر مردم فکر میکنند، خواهد آمد.»
دِمیس هسابیس، یکی از بنیانگذارهای DeepMind زمان تحقق آن را بین پنج تا ده سال آینده پیشبینی کرده و داریو آمودِی، بنیانگذار Anthropic پارسال مدعی شده بود که “هوش مصنوعی قدرتمند”، ممکن است تا سال ۲۰۲۶ در دسترس باشد.
از سوی دیگر متخصصان زیادی هم دراینباره مردد هستند. پروفسور وِندی هال از دانشگاه ساوتهمپتون با طعنه در این باره گفته: «آنها مدام هدف را جابهجا میکنند. جامعه علمی میگوید فناوری هوش مصنوعی شگفتانگیز است، اما هنوز بسیار دور از سطح هوش انسانی قرار دارد.»
بابک حجت، مدیر ارشد فناوری شرکت Cognizant هم براین باور است که برای رسیدن به AGI باید چند پیشرفت بنیادی رخ دهد. او معتقد است که تحقق آن احتمالاً بهصورت ناگهانی یا در یک لحظه واحد نخواهد بود؛ چرا که هوش مصنوعی یک فناوری در حال رشد است و شرکتهای متعددی در سراسر جهان برای ساخت نسخههای خود با هم در رقابت هستند.
اما دلیل اصلی این نگرانیها، چیزی فراتر از AGI است؛ ASI یا رؤیای مرحله بعدی فناوری، یعنی هوش فرا انسانی مصنوعی و نوعی فناوری که از هوش انسانی پیشی میگیرد.
مفهوم تکینگی (Singularity) اولین بار در سال ۱۹۵۸ توسط جان فون نویمان ریاضیدان مجارستانیتبار، مطرح شد و در حقیقت به لحظهای اشاره دارد که هوش ماشینی از درک و کنترل انسان فراتر میرود.
در سال ۲۰۲۴، کتابی با عنوان Genesis نوشته اریک اشمیت، کریگ ماندی و هنری کیسینجر منتشر شد که در آن به بررسی این ایده پرداخته شد که شاید روزی فناوری آنقدر قدرتمند شود که ما تصمیمگیری و رهبری را بهطور کامل به آن واگذار کنیم. استدلال نویسندهها هم این است که این اتفاق قطعاً رخ خواهد داد و فقط این است که چه زمانی شاهد وقوع آن خواهیم بود.
پول برای همه، بدون نیاز به کار؟
طرفداران AGI و ASI دیدگاه نسبتاً دگمی دارند؛ آنان معتقدند که این فناوری قادر است تا درمان بیماریهای کشنده را بیابد، بحران اقلیمی را حل کند و منبع بیپایانی از انرژی پاک ایجاد نماید.
ایلان ماسک حتی مدعی شده که هوش فوقالعاده میتواند دوره درآمد جهانی همگانی را به ارمغان بیاورد. او اخیراً گفته بود که هوش مصنوعی آنقدر ارزان و فراگیر خواهد شد که هر فردی میتواند “یک R۲-D۲ و C-۳PO شخصی” (اشاره به رباتهای فیلم جنگ ستارگان) داشته باشد : «در آن زمان، همه بهترین مراقبتهای پزشکی، غذا، خانه، حملونقل و همه چیزهای دیگر را خواهند داشت. فراوانیِ پایداری در راه است.»
اما این ماجرا یک روی تاریک هم دارد؛ اگر این فناوری به دست تروریستها بیفتد چه خواهد شد؟ یا اگر خود هوش مصنوعی به این نتیجه برسد که انسان، ریشه مشکلات زمین است و تصمیم به حذف ما بگیرد چطور؟
تیم برنرز-لی، خالق وب جهانی، اخیراً در صحبتهایی هشدار داد: «اگر چیزی از شما باهوشتر شود، باید بتوانید آن را مهار کنید و باید بتوانید خاموشش کنید.»
اقدامات دولتها و “بیمه آخرالزمان” ثروتمندان
در این میان، دولتها هم تا حدی برای مقابله با خطرات احتمالی دست به کار شدهاند؛ در آمریکا، جایی که اکثر شرکتهای پیشرو در زمینه هوش مصنوعی در آنجا مستقر هستند، جو بایدن در سال ۲۰۲۳ فرمانی اجرایی صادر کرد که طبق آن، بعضی از شرکتها ملزم به ارائه نتایج آزمایشهای ایمنی خود به دولت فدرال شدند. البته با بازگشت دونالد ترامپ به قدرت، بخشهایی از این دستور به این بهانه که مانعی برای نوآوری هستند، لغو شد.
دو سال پیش بود که مؤسسه ایمنی هوش مصنوعی (AI Safety Institute) که از سوی دولت بریتانیا تأمین مالی میشود، برای بررسی خطرات فناوریهای پیشرفته تأسیس شد.
و در همین میان، میلیاردرهایی هستند که طرحهای خصوصی خود را دنبال میکنند؛ چیزی که رید هافمن آن را “بیمه آخرالزمان” مینامد: «وقتی کسی بگوید که در حال خرید خانهای در نیوزیلند است، درواقع این نوعی اشاره است که نیاز به توضیح ندارد.»
اما در این میان، یک نقص انسانی هم وجود دارد. یکی از محافظان سابق یک میلیاردر که خودش صاحب پناهگاه است، در صحبتهایی به این نکته اشاره کرده که در صورت وقوع فاجعه واقعی، اولین اولویت تیم امنیتی این خواهد بود که با حذف رئیس، خودشان وارد پناهگاه شوند و به نظر میرسید شوخی هم نمیکند.
آیا این نگرانیها فقط توهم هستند؟
پروفسور نیل لارنس، متخصص یادگیری ماشین در دانشگاه کمبریج، معتقد است که در این بحثها بیش از حد بزرگنمایی شده است: «مفهوم هوش عمومی مصنوعی (AGI) به اندازهٔ مفهوم “وسیله نقلیه عمومی مصنوعی” پوچ است!»
طبق استدلال او، همانطور که هیچ وسیلهای وجود ندارد که بتواند همزمان نقش هواپیما، خودرو و دوچرخه را بازی کند، هیچ هوشی هم وجود نخواهد داشت که در تمام زمینهها معادل انسان باشد: «فناوریای که در حال حاضر ساختهایم، برای اولین بار در تاریخ، به مردم عادی این امکان را میدهد که مستقیماً با ماشین صحبت کنند و از آن بخواهند کاری را برایشان انجام دهد. این خودش بهشدت تحولبرانگیز است؛ اما نگرانی من این است که آنقدر درگیر روایتهای شرکتهای بزرگ دربارهٔ AGI شدهایم که فراموش میکنیم چطور همین فناوریهای فعلی را باید به نفع مردم بهبود دهیم.»
مغز انسان در برابر هوش مصنوعی
با وجودی که هوش مصنوعی در بعضی زمینهها مثل تحلیل داده و تشخیص الگو، از مغز انسان پیشی گرفته، اما از نظر ساختار زیستی و درک آگاهانه، هنوز فاصله زیادی با مغز انسان دارد.
مغز انسان حدود ۸۶ میلیارد نورون و ۶۰۰ تریلیون سیناپس دارد که این به مراتب بیشتر از هر مدل مصنوعی موجود دیگری است. یک مدل زبانی بزرگ (LLM) باید بین تعاملها مکث کند؛ ولی مغز انسان دائماً در حال یادگیری و سازگاری است.
بابک حجّت در این رابطه توضیح داد: «اگر به انسان بگویید روی یک سیاره دوردست حیات کشف شده، او بلافاصله این اطلاعات را میپذیرد و درک خودش از جهان را تغییر میدهد؛ اما یک مدل زبانی تنها تا زمانی این را میداند که شما مدام به او یادآوری کنید. مدلهای زبانی فاقد فراشناخت هستند؛ یعنی نمیدانند که چه میدانند؛ اما انسانها نوعی ظرفیت دروننگرانه دارند، چیزی که گاهی “آگاهی” نامیده میشود و این همان چیزی است که هنوز در هیچ آزمایشگاهی بازتولید نشده است.»
در نهایت، فناوری هوش مصنوعی هرچقدر هم قدرتمند شود، هنوز هم بدون احساس، نیت یا درک واقعی از جهان در محدوده دادهها و الگوریتمهایش عمل میکند؛ از سوی دیگر انسانها دارای آگاهی، اخلاق و شهود هستند و این ویژگیهایی است که تا امروز هیچ ماشینی به آن نزدیک هم نشده است.
با وجود این، ترس میلیاردرهای سیلیکونولی از آینده، بیدلیل نیست. پیشرفت سریع فناوری، خطرهای واقعی متعددی هم دارد: از دستکاری اطلاعات تا وابستگی بیش از حد جوامع به سیستمهایی که هیچکس واقعاً آنها را نمیفهمد.
شاید در این شرایط باید به هشدار نیل لارنس بیشتر توجه کرد: «بزرگترین خطر، شاید نه از ماشینها، بلکه از انسانهایی است که قدرت را به ماشینها میسپارند.»
منبع: BBC
۵۸۳۲۱
لینک خبر