فیلسوفی که روزگاری می‌خواست بدنش را منجمد کند تا شاید در آینده بتواند به زندگی باز گردد، حالا رئیس موسسۀ پژوهشیِ عجیبی در دانشگاه آکسفورد است. جایی که معمولاً تا سحر پشت میزش می‌نشیند و سناریوهای ممکن برای انقراض بشر به دست ربات‌های هوشمند را پیش‌بینی می‌کند. پروفسور نیک باستروم معتقد است هوش مصنوعی همانقدر که رؤیایی است، می‌تواند کابوس‌وار هم باشد.


مؤسسۀ فیوچر آو هیومنیتی۱ را در پایین یک کوچۀ قرون‌وسطایی در مرکز آکسفورد پیدا خواهید کرد. این مؤسسه در کنار کلیسای سنت اِبی است، که از سال ۱۰۰۵ میلادی اینجا به یادگار مانده است، و بالای باشگاه ورزشی پیور جیم است، که در ماه آوریل افتتاح شده است. این مؤسسه، که یک دانشکدۀ تحقیقاتیِ وابسته به دانشگاه آکسفورد است، یک دهه قبل تأسیس شد تا بزرگ‌ترین پرسش‌ها را به‌نمایندگی از ما مطرح کند. به‌طور ویژه: «ریسک‌های وجودی» تهدیدکنندۀ آیندۀ گونۀ ما دقیقاً چه هستند؛ چگونه آن‌ها را اندازه‌گیری می‌کنیم؛ و چه کاری می‌توانیم برای جلوگیری از وقوعشان انجام دهیم؟ یا به دیگر سخن: در جهانی با ترس‌های مختلف، دقیقاً از چه چیزی باید بیشتر از همه وحشت داشته باشیم؟

وقتی به آنجا می‌رسم تا با مدیر مؤسسه، پروفسور نیک باستروم، ملاقات کنم، دارند تخت‌خوابی را به دفتر طبقۀ دوم می‌برند. ریسک وجودی نوعی عملیات شبانه‌روزی است؛ به‌ندرت می‌خوابد، اگر اصلاً خوابی در کار باشد.

باستروم، فیلسوفی ۴۳ساله و متولد سوئد، اخیراً به مقامی شبیهِ پیامبر نابودی دست پیدا کرده است، در بین کسانی که اکنون بیشترین فعالیت‌ها را برای شکل‌دادن به تمدن ما انجام می‌دهند: میلیاردرهای دنیای تکنولوژی در سیلیکون ولی. شهرت او اساساً با کتاب اَبَرهوش: مسیرها، خطرها، راهبردها۲ فراگیر شد، کتابی که سال گذشته به‌نحو تعجب‌برانگیزی پرفروش‌ترین کتاب نیویورک‌تایمز شد و اکنون با جلد شومیز به بازار عرضه شده است، درحالی‌که تقریض‌های بیل گیتس و مدیرعامل شرکت تسلا، ایلان ماسک، را به دنبال خود می‌کشد که گفته‌اند این کتاب را حتماً باید خواند (در بهترین نوع از نقد کتاب، ماسک به مؤسسۀ باستروم یک‌میلیون پوند نیز اعطا کرد تا پژوهش‌های خود را جلو ببرد).

این کتاب بررسی نظری و خلاقانۀ تهدیدی استثنایی است که به باور باستروم، پس از سال‌ها محاسبه و استدلال، محتمل‌ترین تهدید برای نابودی ما است. این تهدید، تغییرات اقلیمی، بیماری همه‌گیر، یا یک‌جور زمستان هسته‌ای۳ نیست؛ بلکه آفرینش محتملاً قریب‌الوقوع یک هوشِ عمومیِ ماشینی است که از هوش خودمان برتر است.

جلد کتاب باستروم را تصویر سیاه و سفید یک جغد با چشمانی جنون‌آمیز آراسته است. جغد موضوع تمثیل آغازین کتاب است. گروهی از گنجشک‌ها مشغول ساختن آشیانه‌هایی برای خودشان هستند. یکی از آن‌ها با صدایی آرام جیک‌جیک می‌کند که، «همۀ ما بسیار کوچک و ناتوانیم. تصور کنید زندگی چقدر آسان می‌شد اگر جغدی داشتیم که می‌توانست به ما کمک کند تا آشیانه‌هایمان را بسازیم!» همۀ گنجشک‌ها جیک‌جیک‌کنان موافقت جمعی‌شان را اعلام می‌کنند؛ یک جغد می‌تواند از گنجشک‌ها دفاع کند! می‌تواند از بزرگ و کوچکشان نگهداری کند! می‌تواند به آن‌ها امکان دهد تا در فراغت و رفاه زندگی کنند! با این خیال‌بافی‌ها در ذهن، گنجشک‌ها نمی‌توانند هیجان خود را مهار کنند و در جست‌وجوی ناجیِ تیزبینی به پرواز درمی‌آیند که زندگی آن‌ها را دگرگون خواهد کرد.

تنها یک صدای مخالف به گوش می‌رسد: «اسکرونک‌فینکل، گنجشکی تک‌چشم و کج‌خلق، استدلال‌هایی که از این کار دفاع می‌کنند را قبول ندارد. او می‌گوید: ’این کار بی‌گمان مایۀ تباهی ما خواهد شد. آیا نباید نخست به هنر رام‌کردن جغد بیندیشیم، قبل از آن که چنین موجودی را وارد زندگی خود کنیم؟‘» گنجشک‌ها هشدارهای او را ناچار نادیده می‌گیرند. رام‌کردن جغد کاری پیچیده است؛ چرا ابتدا جغد را نیاوریم و سپس جزئیات کار را تکمیل کنیم؟ کتاب باستروم، که اعلام خطری گوش‌خراش دربارۀ پیامدهای تاریکِ هوش مصنوعی است، به اسکرونک‌فینکل تقدیم شده است.

باستروم هشدارهای خود را بسیار شایسته و به‌شکلی نگران‌کننده بیان می‌کند. او به وسواس و اعتیاد به کار شهرت دارد؛ لاغر اندام، رنگ‌پریده و (نیمه)‌شب‌زنده‌دار است،

در جهانی با ترس‌های مختلف، دقیقاً از چه چیزی باید بیشتر از همه وحشت داشته باشیم؟

و اغلب تا سحر در دفتر کارش می‌ماند. او مردی است که روزهایش را وایت‌بردهایی پوشانده است پر از فرمول‌هایی که مزایای نسبی ۵۷ نسخه از آخرالزمان را برمی‌شمارد، بنابراین شاید تعجب‌برانگیز نباشد که گویا او تا حد ممکن هیچ چیز را به شانس واگذار نمی‌کند. باستروم به‌جای وعده‌های غذایی یک‌جور اکسیرِ مایع سبز را ترجیح می‌دهد که در آن سبزیجات، میوه، شیر جو و پودر پنیر ریخته‌اند. دیگر مصاحبه‌کنندگان گفته‌اند که برای محافظت در برابر سرایت بیماری‌ها، از دست‌دادن خودداری می‌کند. او با من دست داد، اما احساس می‌کنم دستش را قرنطینه کرده بود تا پس از این که رفتم، آن را از آلودگی پاک کند. شاید به‌دلیل همین دغدغه‌ها، اندکی بی‌تاب است و البته چندان نمی‌کوشد تا از آن اجتناب کند.

او در کتابش دربارۀ «انفجار هوش» سخن می‌گوید که هنگامی رخ خواهد داد که ماشین‌هایی بسیار باهوش‌تر از خود ما شروع به طراحی ماشین‌های خودشان می‌کنند. او می‌نویسد: «در رویارویی با چشم‌انداز انفجار هوش، ما آدم‌ها مثل بچه‌هایی هستیم که با بمب بازی می‌کنند. ما نمی‌دانیم انفجار کی رخ خواهد داد، هرچند اگر بمب را به گوش خود نزدیک کنیم، می‌توانیم یک صدای تیک‌تاک ضعیف را بشنویم». وقتی با باستروم صحبت می‌کنید، احساس می‌کنید که آن تیک‌تاکِ ضعیف هرگز در گوش او کاملاً محو نمی‌شود.

اول دربارۀ موفقیت کتابش صحبت می‌کنیم، اینکه چگونه واکنشِ همگان را برانگیخته است. انتشار این کتاب همزمان بود با انتشار نامه‌ای سرگشاده که به امضای بیش از هزار دانشمند سرشناس رسیده بود، ازجمله استیون هاوکینگ و استیو وازنیکْ یکی از بینانگذاران اپل و ماسک. این نامه در همایش بین‌المللی هوش مصنوعی در سال گذشته ارائه شد، و خواستار جلوگیری از کاربرد و توسعۀ سلاح‌های کاملاً خودکار بود («ربات‌های قاتل» داستان‌های علمی‌تخیلی‌ای که تحققِ آن‌ها در واقعیت بسیار نزدیک است). باستروم، که از توانایی‌های خود آگاه است و دربارۀ تأثیرگذاری خودش شکسته‌نفسی می‌کند، گفت که این اتفاق تصادفِ زمانی خوشحال‌کننده‌ای بود.

می‌گوید: «یادگیری ماشین و یادگیری عمیق [الگوریتم‌های رایانه‌ایِ پیشرویِ ’عصبی‘ که با دقتِ بسیار کارکرد مغز آدمی را تقلید می‌کنند] در طول چند سال گذشته، بسیار سریع‌تر از آن چیزی پیشرفت کرده‌اند که پیش‌بینی می‌کردیم. این بی‌گمان یکی از دلایلی است که چرا این مسئله امروز به موضوعی چنین بزرگ تبدیل شده است. مردم می‌بینند که حوزۀ تکنولوژی در حال پیشرفت است، و گام‌های بعدی به دغدغۀ فکری آن‌ها تبدیل می‌شود».

باستروم این پیامدها را همچون اموری می‌بیند که بالقوه داروینی‌اند. اگر ما یک هوشِ ماشینی برتر از خودمان خلق کنیم، و سپس آن را آزاد بگذاریم تا از طریق دسترسی به اینترنت یاد بگیرد و رشد کند، دلیلی ندارد که برای تضمین سلطۀ خود استراتژی‌هایی را در پیش نگیرد، یعنی درست همان‌طور که در جهان زیستی شاهد هستیم. باستروم گاهی از مثال آدم‌ها و گوریل‌ها استفاده می‌کند تا رابطۀ یک‌سویۀ متعاقب را توصیف کند و، همان‌طور که رخدادهای ماه گذشته در باغ‌وحش سینسیناتی نشان داد۴، این امر هرگز پایان خوشی نخواهد داشت. هوشِ فرودست همواره برای بقای خود به هوش فرادست وابسته است.

وقتی باستروم سناریوهای گوناگون را در کتاب اَبَرهوش توصیف می‌کند، گاهی به نظر می‌رسد که بیش از اندازه از آن داستان‌های علمی‌تخیلی‌ای خوانده است که اذعان می‌کند از آن‌ها بیزار است. یکی از چشم‌اندازها چنین است: یک سیستم هوش مصنوعی سرانجام «نانوکارخانه‌هایی مخفی می‌سازد که گاز اعصاب یا ربات‌های پشه‌مانندِ جستجوگرِ هدف تولید می‌کنند که ممکن است همزمان از هر متر مربع کرۀ زمین بیرون بریزند» تا انسان‌های بی‌اهمیت و مزاحم را نابود کنند. طبق یک چشم‌انداز دیگر، که شاید باورپذیرتر باشد، اَبَرهوش «فرآیندهای سیاسی را در دست می‌گیرد، بازارهای مالی را به‌نحوی پیچیده دستکاری می‌کند، جریان اطلاعات را تحریف می‌کند، یا سیستم‌های جنگی ساخت انسان را هک می‌کند» تا نوع بشر را منقرض نماید.

آیا او خودش را در مقام یک پیامبر می‌بیند؟

لبخند می‌زند. «نه چندان. این‌طور نیست 

باستروم به‌جای وعده‌های غذایی یک‌جور اکسیرِ مایع سبز را ترجیح می‌دهد که در آن سبزیجات، میوه، شیر جو و پودر پنیر ریخته‌اند

که اعتقاد داشته باشم که می‌دانم ماجرا چگونه رخ خواهد داد و حالا رسالتم این است که این اطلاعات را به جهانیان بگویم. بیشتر حس می‌کنم دربارۀ این امور کاملاً نادان و بسیار سردرگم هستم، اما وقتی سالیان دراز روی احتمالات تحقیق می‌کنید، می‌توانید بینش‌هایی کوچک و جزئی در اینجا و آنجا به دست آورید. و اگر این بینش‌ها را با بینش‌های دیگری جمع کنید که ممکن است بسیاری از افراد دیگر داشته باشند، آنگاه شاید به فهم بهتری برسیم». 

باستروم از مسیر جنبش فراانسان‌گرایی۵ به این پرسش‌ها رسیده است. او عصر دیجیتال را عصری با پتانسیلی بی‌سابقه می‌داند، پتانسیلی برای بهینه‌سازی توانایی‌های فیزیکی و ذهنی ما و فراتررفتن از مرزهای میرایی ما. باستروم هنوز هم آن امکان‌ها را به‌منزلۀ سناریوی بهترین حالت در آیندۀ اَبَرهوش می‌نگرد، که در آن ما تکنولوژی را مهار خواهیم کرد تا بر بیماری و رنج غلبه کنیم، غذای مردم جهان را تأمین کنیم، یک آرمان‌شهر برای شکوفایی خلاقیت بشر ایجاد نماییم و شاید سرانجام بر مرگ غلبه کنیم. او در گذشته یکی از اعضای بنیاد آلکور بوده است، سازمانی پیشگام در سرمازیستی که وعده می‌دهد جسد فرد را منجمد می‌کند، به این امید که، یک روزی، بتوانیم به ذهن نیروی تازه‌ای ببخشیم و به‌صورتِ دیجیتال آن را آپلود کنیم و زندگیِ جاودانی را محقق کنیم. وقتی از او مستقیماً پرسیدم در این زمینه چه برنامه‌ای دارد، خجالت‌زده شد.

می‌گوید، «عادتم این است که هرگز دربارۀ شیوۀ کفن و دفن خودم سخن نگویم».

اما آیا فکر می‌کند پژوهش‌های سرمازیستی ارزش دارد؟

می‌گوید: «نسبتاً عقلانی به نظر می‌رسد که مردم این کار را انجام دهند، اگر توانایی مالی انجام آن را داشته باشند. وقتی می‌اندیشید که زندگی در آیندۀ کاملاً نزدیک چگونه می‌تواند باشد، کوشش برای ذخیرۀ اطلاعات در مغزتان گزینۀ محتاطانه‌تری به نظر می‌رسد، در برابر این گزینه که مغزتان را بسوزانید و دور بریزید. مگر اینکه واقعاً مطمئن باشید که این اطلاعات دیگر هرگز سودمند نخواهد بود...».

از خودم می‌پرسم، در چه نقطه‌ای، خوش‌بینیِ فراانسان‌گرایانۀ او با چشم‌اندازهای عمدتاً کابوس‌وارِ این فیلسوف از اَبَرهوش جایگزین شده است. او می‌گوید که واقعاً موضعش را تغییر نداده است، بلکه به هر دو امکان، بهشت و دوزخِ آیندۀ دیجیتال ما، در تعارضی آشوبناک پایبند است.

می‌گوید: «من مطالب زیادی دربارۀ اخلاقِ بهبود توانایی‌های جسمی بشر در میانۀ دهۀ ۹۰ نوشته‌ام، زمانی که اکثر این حرف‌ها را دانشگاهیان رد می‌کردند. آن‌ها همواره چنین ذهنیتی داشته‌اند که چرا اصلاً کسی روی کرۀ زمین می‌خواهد پیری را درمان کند؟ آن‌ها دربارۀ افزایش بیش از حد جمعیت و ملالت زندگی طولانی‌مدت سخن می‌گفتند. آن‌ها این نکته را درنمی‌یافتند که تمام تحقیقات پزشکی به‌همین دلیل انجام می‌شود: برای افزایش طول‌عمر. همین امر دربارۀ بهبود توانایی‌های شناختی بشر نیز صادق است، اگر شما به مطالبی نگاه کنید که من در آن زمان نوشته‌ام، بیشتر جنبۀ خوش‌بینانه دارد، اما من همواره به ریسک‌های وجودی نیز می‌اندیشیدم».

یکی از نگرانی‌های همیشگی این است که چنین دستاوردهایی، مثلاً قرص‌هایی که می‌تواند شما را باهوش‌تر کند یا روند پیری را کند نماید، خلاف نظم طبیعی امور هستند. آیا او این نکته را مد نظر دارد؟

می‌گوید: «گمان نمی‌کنم هیچ‌وقت امر طبیعی را با امر خوب برابر در نظر گرفته باشم. سرطان طبیعی است، جنگ طبیعی است، انگل‌هایی که اعضای دورنی شما را می‌خورند، طبیعی هستند. بنابراین، آنچه طبیعی است، هیچ‌گاه مفهوم چندان سودمندی برای فهم این نیست که چه باید بکنیم. بله، ملاحظاتی اخلاقی وجود دارد اما شما باید مورد به مورد دربارۀ آن‌ها داوری کنید. باید به یاد داشته باشید که من یک فراانسان‌گرا هستم. من قرص افزایش طول‌عمر خودم را همین اکنون می‌خواهم. و اگر قرصی باشد که بتواند توانایی شناختی مرا ۱۰ درصد افزایش دهد، من مایلم پول زیادی برایش صرف کنم».

آیا قرص‌هایی را امتحان کرده است که ادعا می‌کنند تمرکز را بهبود می‌بخشند؟

«آن‌ها را امتحان کرده‌ام، اما نه خیلی زیاد. قهوه می‌نوشم، آدامسِ نیکوتین‌دار استفاده می‌کنم، اما همین و بس. اما تنها دلیلی که من کاری بیش از این انجام نمی‌دهم آن است که هنوز متقاعد نشده‌ام که چیز دیگری در این زمینه مؤثر است».

او از امتحان‌کردن ترسی ندارد. هنگام کار، بنابر عادت، در گوشۀ دفترش 

وقتی می‌اندیشید که زندگی در آیندۀ کاملاً نزدیک چگونه می‌تواند باشد، کوشش برای ذخیرۀ اطلاعات در مغزتان، گزینه‌ای محتاطانه‌تری به نظر می‌رسد

و در میان ده‌بیست تا لامپ می‌نشیند، ظاهراً برای سرسپردگی به ایدۀ روشنگری.

باستروم تک‌فرزند خانواده بود و در شهر ساحلی هلسینگ‌بورگ در سوئد بزرگ شد. مثلِ بسیاری از کودکان بااستعداد دیگر از مدرسه نفرت داشت. پدرش در یک بانکِ سرمایه‌گذاری کار می‌کرد، مادرش برای یک شرکت سوئدی. به یاد نمی‌آورد که، سر میز شام، هیچ‌گونه بحثی دربارۀ فلسفه یا هنر یا کتاب‌ها درگرفته باشد. در شگفت از اینکه چگونه این پرسش‌های بزرگ به وسواس فکری او تبدیل شدند، از او می‌پرسم که آیا او کودکی دلواپس بود: آیا همواره احساسی قدرتمند دربارۀ میرایی داشت؟

می‌گوید: «فکر می‌کنم این حس را از همان اوایل کودکی داشتم. نه بدان دلیل که در آستانۀ مرگ بودم یا چیزی از این دست. اما به یاد می‌آورم که در کودکی بسیار به این می‌اندیشیدم که والدینم شاید اکنون تندرست باشند، اما قرار نیست برای همیشه قوی‌تر یا بزرگ‌تر از من باشند».

آیا این اندیشه او را شب‌ها بیدار نگه می‌داشت؟

«این فکرها را به‌مثابۀ اضطراب به یاد نمی‌آورم، آن‌ها را بیشتر همچون یک‌جور حس افسردگی به یاد می‌آورم».

و آیا آن آرزوی جاری برای زندگی جاودان نیز در آن اندیشه‌ها ریشه داشت؟

«نه ضرورتاً. من فکر نمی‌کنم که هیچ گونه آرزوی متفاوت خاصی وجود داشته باشد که من در مقایسه با دیگران در این رابطه داشته باشم. من نمی‌خواهم که به سرطان رودۀ بزرگ مبتلا شوم، چه کسی می‌خواهد؟ اگر من ۵۰۰ سال عمر کنم، چه کسی می‌داند چگونه احساساتی خواهم داشت؟ ماجرا آنقدرها وسواس دربارۀ جاودانگی نیست، موضوع فقط این است که مرگ زودهنگام در بادی امر بد به نظر می‌رسد».

بخش بزرگی از کتاب او پرسش‌هایی مطرح می‌کند دربارۀ این‌که چگونه می‌توانیم اَبَرهوش را، چه در ۵۰ سال آینده رخ دهد، چه در ۵۰۰ سال آینده، «خوشایند» کنیم و سازگار با انسانیت خودمان. باستروم این مسئله را بیشتر چالشی تکنیکی در نظر می‌گیرد تا سیاسی یا فلسفی. هرچند، به نظر من چنین می‌رسد که بخش بزرگی از چارچوب اخلاقی ما، حس ما از خوبی، مبتنی بر تجربه و فهمی از رنج است، از بدن‌های خودمان. چگونه یک هوشِ غیرسلولی می‌تواند این امر را «درک کند»؟

می‌گوید: «چیزهای بسیاری هست که ماشین‌ها اکنون نمی‌توانند بفهمند زیرا به‌اندازۀ کافی باهوش نیستند، اما هنگامی که به آن اندازه باهوش شوند، من فکر نمی‌کنم هیچ‌گونه مشکل خاصی در فهم مرگ و رنج بشر وجود داشته باشد». می‌گوید که این فهم می‌تواند راهی باشد برای آنکه به آن‌ها بیاموزیم تا به ارزش انسان احترام بگذارند. «اما بستگی دارد به اینکه نظریۀ اخلاقی شما چه باشد. چنین نظریه‌ای می‌تواند بیشتر دربارۀ احترام به خودمختاری دیگران باشد، یا کوشش برای دستیابی جمعی به چیزهای زیبا». فکر می‌کند، اما نمی‌داند واقعاً چگونه این چیزها باید از آغاز در ساختمان ماشین‌ها جای داده شود تا از فاجعه جلوگیری شود. اصلاً خوب نیست که ابتدا جغدِ خود را بیاورید و سپس بیندیشید که چگونه تربیتش کنید. و در زمینۀ سیستم‌های هوشمند که همین حالا هم در بسیاری از حوزه‌های مختلف برتر از بهترین هوش‌های انسانی هستند، گفت‌وگو دربارۀ چگونگی انجام چنین کاری همین حالا هم دیر شده است.

احساس ضرورت فکری دربارۀ این پرسش‌ها تا حدودی از آن چیزی نشئت می‌گیرد که باستروم نوعی «تجربۀ کشف» می‌نامد، تجربه‌ای که در دروان نوجوانی او رخ داد. او در سال ۱۹۸۹ به کتابخانه رفته است و به‌طور تصادفی کتابی را برمی‌دارد که گلچینی است از فلسفۀ آلمان در قرن نوزدهم، شامل آثاری از نیچه و شوپنهاور. این کتاب او را مجذوب می‌کند و او آن را در جنگلی نزدیک کتابخانه می‌خواند، در فضایی باز که معمولاً آنجا می‌رود تا تنها باشد و شعر بنویسد. تقریباً بی‌درنگ او حسی هیجان‌انگیز از امکان‌های یادگیری را تجربه می‌کند. آیا این همانند نوعی تجربۀ تغییر دین بود؟

می‌گوید: «بیشتر یک‌جور بیداری بود. احساس می‌کردم که گویی در طول زندگی‌ام تا آن نقطه خواب‌گردی کرده‌ام و اکنون از جهانی بزرگ‌تر آگاه شده بودم که تصورش را هم نکرده بودم».

باستروم نخست با پیروی از راهنمایی‌های موجود در کتاب فلسفه، آموزش سریع خود را آغاز می‌کند. با تب و تاب کتاب می‌خواند، و در اوقات اضافی نقاشی می‌کشد و شعر می‌نویسد، سرانجام در رشته‌های فلسفه و منطق ریاضی در دانشگاه گوتنبرگ فارغ‌التحصیل می‌شود، قبل از آنکه دکترای خود را در مدرسۀ اقتصادی لندن کامل کند و در دانشگاه ییل تدریس نماید.

آیا به نقاشی و نوشتن ادامه داده؟

می‌گوید: «در نقطه‌ای 

هنگامی که ماشین‌ها بتوانند همه چیز را بهتر از آن انجام دهند که ما می‌توانیم، ما به انجام آن کارها ادامه خواهیم داد زیرا از انجامشان لذت می‌بریم

چنین به نظرم رسید که مطالعۀ ریاضیات مهم‌تر است. احساس می‌کردم که جهان از قبل شمار زیادی تابلوی نقاشی دارد و من متقاعد نشده بودم که به چند تابلوی دیگر هم نیاز دارد. همین را دربارۀ شعر هم می‌شود گفت. اما چه بسا این دنیا به چند ایدۀ دیگر دربارۀ چگونگی ادارۀ آینده نیاز داشت».

یکی از حوزه‌هایی که هوش مصنوعی در آن در حال پیشرفت است، توانایی در ساخت موسیقی و آفرینش آثار هنری است، و حتی نوشتن. آیا تصور می‌کند که این قلمرو نیز سریعاً به استعمار یک اَبَرهوش در خواهد آمد، یا آخرین پناهگاه بشر خواهد بود؟

«من این ادعا را قبول ندارم که امروز آهنگسازان هوش مصنوعی می‌توانند با آهنگسازان بزرگ رقابت کنند. شاید در قطعاتی کوتاه بتوانند اما در کل یک سمفونی نمی‌توانند. و در رابطه با هنر، هر چند آن را می‌توان کپی کرد، اما خود این فعالیت دارای ارزش است. شما هنوز برای خود نقاشی است که نقاشی می‌کنید».

اصالت، ساختۀ انسان، به‌طور روزافزون از اهمیت برخوردار می‌شود؟

«بله و فقط در رابطه با هنر چنین نیست. اگر و هنگامی که ماشین‌ها بتوانند همه چیز را بهتر از آن انجام دهند که ما می‌توانیم، ما به انجام آن چیزها ادامه خواهیم داد زیرا از انجام آن‌ها لذت می‌بریم. اگر مردم گلف بازی می‌کنند، بدان دلیل نیست که نیاز دارند توپ به‌طور کارآمدی در سوراخ‌هایی متناوب جای بگیرد، به علت این است که از انجام آن لذت می‌برند. هر چه ماشین‌ها بیشتر بتوانند هر کاری را انجام دهند که ما می‌توانیم انجام دهیم، ما توجه بیشتری به کارهایی خواهیم داشت که به آن‌ها برای خودشان ارزش می‌نهیم».

باستروم، در اوایل کار فکری خود، برای بهبود مهارت‌های ارتباطی‌اش، چند بار به اجرای استندآپ کمدی‌های فلسفی پرداخت. وقتی با او صحبت می‌کنید، یا آثارش را می‌خوانید، می‌بینید که در استدلال‌های او هیچ‌گاه رگه‌ای از طنز فاضلانه، در تحلیلِ ابعادِ کلانِ مسائل غایب نیست. محور نمودارهای عجیب و غریبِ مقالات او، با بررسی دقیق‌تر، بر حسب معیارهایی مثل «تحمل‌پذیر»، «خردکننده» و «جهنمی» تنظیم می‌شود. در مقدمه‌اش بر اَبَرهوش، این جمله که «بسیاری از نکات این کتاب احتمالاً نادرست هستند»، یک پانویس دارد که نوشته است: «من نمی‌دانم کدام نکات نادرست هستند». آیا گاهی احساس می‌کند شخصیت داگلاس آدامز۶ را به خود گرفته است؟

می‌گوید: «گاهی نوشته عجیب به نظر می‌رسد. اما از دیدگاهی دیگر، این هم عجیب به نظر می‌رسد که بیشتر جهانیان نسبت‌به مهم‌ترین چیزهایی که قرار است در قرن بیست‌ویکم رخ دهد، کاملاً بی‌توجه هستند. حتی کسانی که دربارۀ گرمایش جهانی صحبت می‌کنند، هرگز هیچ تهدیدی را از ناحیۀ هوش مصنوعی ذکر نمی‌کنند».

زیرا این موضوع پیام آن‌ها را تضعیف می‌کند؟

«شاید. به نظر من چنین می‌رسد که در هر زمانی در تاریخ تنها یک دغدغۀ جهانی رسمی می‌تواند وجود داشته باشد. آن دغدغه اکنون تغییرات اقلیمی است، یا گاهی هم تروریسم. وقتی من جوان بودم، جنگ هسته‌ای بود. سپس افزایش بیش از حد جمعیت بود. برخی از برخی دیگر معقول‌تر هستند، اما انتخاب آن‌ها واقعاً کاملاً تصادفی است».

باستروم تمایل دارد و می‌کوشد تا این تصادفی‌بودن را با استفاده از ریاضیات تحلیل کند. آیا فکر می‌کند که نگرانی‌ها دربارۀ هوش مصنوعی به‌عنوان تهدیدی قریب‌الوقوع‌تر، در آیندۀ نزدیک، بر نگرانی‌ها دربارۀ گرمایش جهانی غلبه خواهد کرد؟

می‌گوید: «بعید می‌دانم. این اتفاقات تدریجی و نامحسوس رخ خواهد داد، بدون آن که ما واقعاً به آن بپردازیم».

اگر بخواهیم منشأ ظهور این اتفاقات را جست‌وجو کنیم، گوگل، که در حال تخصیص مقدار زیادی از منابع بی‌سابقۀ خود به تکنولوژی یادگیری عمیق است (به‌ویژه با خرید شرکتی پیشگام در هوش مصنوعی به نام دیپ‌مایند، در سال ۲۰۱۴)، نقطۀ معقولی برای شروع به نظر می‌رسد. گوگل ظاهراً دارای یک هیئت اخلاق هوش مصنوعی است تا با این پرسش‌ها روبه‌رو شود، اما هیچ‌کس نمی‌داند اعضای آن چه کسانی‌اند. آیا باستروم به شعار آن‌ها، یعنی «اهریمنی نباشید»، ایمان دارد؟

«بی‌گمان در بین افراد حاضر در دنیای تکنولوژی، فرهنگی وجود دارد که می‌خواهند احساس کنند که دارند کاری انجام می‌دهند که فقط برای پول درآوردن نیست، بلکه دارای نوعی هدف اجتماعی مثبت است. این آرمان‌گرایی وجود دارد».

آیا او می‌تواند در شکل‌دهی به سمت‌وسوی آن آرمان‌گرایی نقشی ایفا کند؟

می‌گوید: «مسئله خیلی این نیست که تأثیر خودِ فرد مهم باشد. هر کسی که دارای نقشی در برجسته‌سازی 

کارهای بسیار کوچکی که اکنون انجام می‌دهیم، می‌تواند تفاوتی چشمگیر در آینده ایجاد کند

این استدلالات است، ارزشمند خواهد بود. اگر وضعیت آدمی واقعاً قرار باشد به‌طور بنیادی در قرن ما دگرگون شود، ما در مقطعی کلیدی از تاریخ قرار داریم». و اگر پیش‌بینی‌های بیشتر پوچ‌انگارانۀ باستروم درست باشد، ما تنها یک بار فرصت داریم که ماهیت هوش جدید را درست بسازیم.

باستروم سال گذشته پدر شد. (ازدواجش عمدتاً چیزی است که با اسکایپ جلو می‌رود، همسرش یک پزشک ساکن ونکوور است). قبل از آن که بروم، از او می‌پرسم که آیا پدرشدن، درک او از واقعیت این مسائل آینده‌نگرانه را تغییر داده است؟

«تنها از این لحاظ که پدرشدن بر این چشم‌انداز دوگانه تأکید دارد، سناریوهای مثبت و منفی. این نوع اندیشه‌سازی، اینکه جهان ما ممکن است بدین شیوه کاملاً دگرگون شود، همواره به نظر می‌رسد پذیرش آن در سطح فردی بسیار سخت‌تر است. من گمان می‌کنم که تا آنجا که بتوانم به هر دو چشم‌انداز در ذهن خودم فضا خواهم داد».

به او می‌گویم در همان هنگامی که او آن آزمایش‌های فکری را در سر می‌پروراند، نیمی از مردم جهان دغدغۀ این را دارند که وعدۀ غذایی بعدی آن‌ها از کجا باید تأمین شود. آیا تهدید اَبَرهوش در کل نوعی اضطراب نخبه‌گرایانه است؟ آیا اکثر ما بدان دلیل به آیندۀ بسیار دور نمی‌اندیشیم که برای ما در زمان حال بیش از حد کافی نگرانی وجود دارد؟

می‌گوید: «اگر این کار به نقطه‌ای رسیده بود که جهان در حال صرف صدها میلیارد دلار روی این موضوع بود و هیچ پولی صرف کارهای معمولی‌تر نمی‌کرد، آنگاه می‌توانستیم آن را زیر سؤال ببریم. اگر شما به تمام چیزهایی نگاه کنید که جهان در حال صرف پول برای آن‌هاست، آنچه ما داریم انجام می‌دهیم از شندرغاز هم کمتر است. شما به یک شهر سفر می‌کنید و از فرودگاه به هتل می‌روید. در طول بزرگراه شاهد آن‌همه ساختمان‌های عظیم از شرکت‌هایی هستید که هرگز نام آن‌ها را نشنیده‌اید. شاید آن‌ها در حال طراحی یک پویش جدید برای تبلیغ نوعی تیغ صورت‌تراشی هستند. شما از کنار صدها نمونه از این ساختمان‌ها عبور می‌کنید. هر یک از این شرکت‌ها، منابع مالی بیشتری از کل آن پولی در اختیار دارد که نوع بشر صرف این حوزه می‌کند. ما نیمی از یک طبقه از یک ساختمان را در آکسفورد در اختیار داریم، و دو یا سه گروه دیگر وجود دارد که همانند ما در این حوزه تحقیق می‌کنند. بنابراین، من فکر می‌کنم این کار مشکلی ندارد».

می‌پرسم که ما در مقام افراد و شهروندان چگونه می‌توانیم دربارۀ این ریسک‌های معطوف به وجود گونۀ ما بیندیشیم و آن‌ها را چارچوب‌بندی کنیم؟ باستروم اندکی شانه بالا می‌اندازد. «اگر ما به این چارچوب زمانی بسیار بلندمدت بیندیشیم، آنگاه روشن می‌شود که کارهای بسیار کوچکی که اکنون انجام می‌دهیم، می‌تواند تفاوتی چشمگیر در آن آینده ایجاد کند».

یک مقالۀ جدید باستروم، که من بعدتر در خانه آن را خواندم، قاعدۀ کلی کوچکی را مطرح می‌کند که ارزش دارد به خاطر سپرده شود. باستروم آن را «ماکسیپک» می‌نامد. این قاعده مبتنی بر این ایده است که «وقتی ما براساس یک دغدغۀ بی‌طرفانه برای انسانیت به‌منزلۀ یک کل کار می‌کنیم، هدفِ کاهشِ ریسک‌های وجودی باید اولویت اصلی باشد». ماکسیپک یعنی چه؟ کوشش برای آن که «احتمال یک ’نتیجۀ خوب‘ را بیشینه کنیم، و یک نتیجۀ خوب هم هر نتیجه‌ای است که از فاجعۀ وجودی پرهیز می‌کند».

بی‌گمان این قاعده ارزش امتحان را دارد.


پی‌نوشت‌ها:
* این مطلب را تیم آدامز نوشته و در تاریخ ۲۸ سپتامبر ۲۰۱۷ با عنوان «Artificial intelligence: We’re like children playing with a bomb» د
** تیم آدامز (Tim Adams) از نویسندگان ثابت بخش آبزرور در گاردین است که معمولاً دربارۀ اقتصاد و تکنولوژی می‌نویسد.
[۱] Future of Humanity Institute
[۲] Superintelligence: Paths, Dangers, Strategies
[۳] nuclear winter: از عواقب اقلیمی احتمالی یک جنگ هسته‌ای که در نتیجۀ آن امکان رشد گیاهان و زیست حیوانات از میان می‌رود [مترجم].
[۴] یک گوریل در این باغ‌وحش به‌دلیل ورود یک پسربچه به بخش نگهداری آن با تیراندازی کشته شد [مترجم].
[۵] transhumanist movement
[۶] Douglas Adams: نویسندۀ آمریکایی و فیلم‌نامه‌نویس برخی از آثار آلفرد هیچکاک [مترجم].