فیلسوفی که روزگاری میخواست بدنش را منجمد کند تا شاید در آینده بتواند به زندگی باز گردد، حالا رئیس موسسۀ پژوهشیِ عجیبی در دانشگاه آکسفورد است. جایی که معمولاً تا سحر پشت میزش مینشیند و سناریوهای ممکن برای انقراض بشر به دست رباتهای هوشمند را پیشبینی میکند. پروفسور نیک باستروم معتقد است هوش مصنوعی همانقدر که رؤیایی است، میتواند کابوسوار هم باشد.
مؤسسۀ فیوچر آو هیومنیتی۱ را در پایین یک کوچۀ قرونوسطایی در مرکز آکسفورد پیدا خواهید کرد. این مؤسسه در کنار کلیسای سنت اِبی است، که از سال ۱۰۰۵ میلادی اینجا به یادگار مانده است، و بالای باشگاه ورزشی پیور جیم است، که در ماه آوریل افتتاح شده است. این مؤسسه، که یک دانشکدۀ تحقیقاتیِ وابسته به دانشگاه آکسفورد است، یک دهه قبل تأسیس شد تا بزرگترین پرسشها را بهنمایندگی از ما مطرح کند. بهطور ویژه: «ریسکهای وجودی» تهدیدکنندۀ آیندۀ گونۀ ما دقیقاً چه هستند؛ چگونه آنها را اندازهگیری میکنیم؛ و چه کاری میتوانیم برای جلوگیری از وقوعشان انجام دهیم؟ یا به دیگر سخن: در جهانی با ترسهای مختلف، دقیقاً از چه چیزی باید بیشتر از همه وحشت داشته باشیم؟
وقتی به آنجا میرسم تا با مدیر مؤسسه، پروفسور نیک باستروم، ملاقات کنم، دارند تختخوابی را به دفتر طبقۀ دوم میبرند. ریسک وجودی نوعی عملیات شبانهروزی است؛ بهندرت میخوابد، اگر اصلاً خوابی در کار باشد.
باستروم، فیلسوفی ۴۳ساله و متولد سوئد، اخیراً به مقامی شبیهِ پیامبر نابودی دست پیدا کرده است، در بین کسانی که اکنون بیشترین فعالیتها را برای شکلدادن به تمدن ما انجام میدهند: میلیاردرهای دنیای تکنولوژی در سیلیکون ولی. شهرت او اساساً با کتاب اَبَرهوش: مسیرها، خطرها، راهبردها۲ فراگیر شد، کتابی که سال گذشته بهنحو تعجببرانگیزی پرفروشترین کتاب نیویورکتایمز شد و اکنون با جلد شومیز به بازار عرضه شده است، درحالیکه تقریضهای بیل گیتس و مدیرعامل شرکت تسلا، ایلان ماسک، را به دنبال خود میکشد که گفتهاند این کتاب را حتماً باید خواند (در بهترین نوع از نقد کتاب، ماسک به مؤسسۀ باستروم یکمیلیون پوند نیز اعطا کرد تا پژوهشهای خود را جلو ببرد).
این کتاب بررسی نظری و خلاقانۀ تهدیدی استثنایی است که به باور باستروم، پس از سالها محاسبه و استدلال، محتملترین تهدید برای نابودی ما است. این تهدید، تغییرات اقلیمی، بیماری همهگیر، یا یکجور زمستان هستهای۳ نیست؛ بلکه آفرینش محتملاً قریبالوقوع یک هوشِ عمومیِ ماشینی است که از هوش خودمان برتر است.
جلد کتاب باستروم را تصویر سیاه و سفید یک جغد با چشمانی جنونآمیز آراسته است. جغد موضوع تمثیل آغازین کتاب است. گروهی از گنجشکها مشغول ساختن آشیانههایی برای خودشان هستند. یکی از آنها با صدایی آرام جیکجیک میکند که، «همۀ ما بسیار کوچک و ناتوانیم. تصور کنید زندگی چقدر آسان میشد اگر جغدی داشتیم که میتوانست به ما کمک کند تا آشیانههایمان را بسازیم!» همۀ گنجشکها جیکجیککنان موافقت جمعیشان را اعلام میکنند؛ یک جغد میتواند از گنجشکها دفاع کند! میتواند از بزرگ و کوچکشان نگهداری کند! میتواند به آنها امکان دهد تا در فراغت و رفاه زندگی کنند! با این خیالبافیها در ذهن، گنجشکها نمیتوانند هیجان خود را مهار کنند و در جستوجوی ناجیِ تیزبینی به پرواز درمیآیند که زندگی آنها را دگرگون خواهد کرد.
تنها یک صدای مخالف به گوش میرسد: «اسکرونکفینکل، گنجشکی تکچشم و کجخلق، استدلالهایی که از این کار دفاع میکنند را قبول ندارد. او میگوید: ’این کار بیگمان مایۀ تباهی ما خواهد شد. آیا نباید نخست به هنر رامکردن جغد بیندیشیم، قبل از آن که چنین موجودی را وارد زندگی خود کنیم؟‘» گنجشکها هشدارهای او را ناچار نادیده میگیرند. رامکردن جغد کاری پیچیده است؛ چرا ابتدا جغد را نیاوریم و سپس جزئیات کار را تکمیل کنیم؟ کتاب باستروم، که اعلام خطری گوشخراش دربارۀ پیامدهای تاریکِ هوش مصنوعی است، به اسکرونکفینکل تقدیم شده است.
باستروم هشدارهای خود را بسیار شایسته و بهشکلی نگرانکننده بیان میکند. او به وسواس و اعتیاد به کار شهرت دارد؛ لاغر اندام، رنگپریده و (نیمه)شبزندهدار است،
و اغلب تا سحر در دفتر کارش میماند. او مردی است که روزهایش را وایتبردهایی پوشانده است پر از فرمولهایی که مزایای نسبی ۵۷ نسخه از آخرالزمان را برمیشمارد، بنابراین شاید تعجببرانگیز نباشد که گویا او تا حد ممکن هیچ چیز را به شانس واگذار نمیکند. باستروم بهجای وعدههای غذایی یکجور اکسیرِ مایع سبز را ترجیح میدهد که در آن سبزیجات، میوه، شیر جو و پودر پنیر ریختهاند. دیگر مصاحبهکنندگان گفتهاند که برای محافظت در برابر سرایت بیماریها، از دستدادن خودداری میکند. او با من دست داد، اما احساس میکنم دستش را قرنطینه کرده بود تا پس از این که رفتم، آن را از آلودگی پاک کند. شاید بهدلیل همین دغدغهها، اندکی بیتاب است و البته چندان نمیکوشد تا از آن اجتناب کند.
او در کتابش دربارۀ «انفجار هوش» سخن میگوید که هنگامی رخ خواهد داد که ماشینهایی بسیار باهوشتر از خود ما شروع به طراحی ماشینهای خودشان میکنند. او مینویسد: «در رویارویی با چشمانداز انفجار هوش، ما آدمها مثل بچههایی هستیم که با بمب بازی میکنند. ما نمیدانیم انفجار کی رخ خواهد داد، هرچند اگر بمب را به گوش خود نزدیک کنیم، میتوانیم یک صدای تیکتاک ضعیف را بشنویم». وقتی با باستروم صحبت میکنید، احساس میکنید که آن تیکتاکِ ضعیف هرگز در گوش او کاملاً محو نمیشود.
اول دربارۀ موفقیت کتابش صحبت میکنیم، اینکه چگونه واکنشِ همگان را برانگیخته است. انتشار این کتاب همزمان بود با انتشار نامهای سرگشاده که به امضای بیش از هزار دانشمند سرشناس رسیده بود، ازجمله استیون هاوکینگ و استیو وازنیکْ یکی از بینانگذاران اپل و ماسک. این نامه در همایش بینالمللی هوش مصنوعی در سال گذشته ارائه شد، و خواستار جلوگیری از کاربرد و توسعۀ سلاحهای کاملاً خودکار بود («رباتهای قاتل» داستانهای علمیتخیلیای که تحققِ آنها در واقعیت بسیار نزدیک است). باستروم، که از تواناییهای خود آگاه است و دربارۀ تأثیرگذاری خودش شکستهنفسی میکند، گفت که این اتفاق تصادفِ زمانی خوشحالکنندهای بود.
میگوید: «یادگیری ماشین و یادگیری عمیق [الگوریتمهای رایانهایِ پیشرویِ ’عصبی‘ که با دقتِ بسیار کارکرد مغز آدمی را تقلید میکنند] در طول چند سال گذشته، بسیار سریعتر از آن چیزی پیشرفت کردهاند که پیشبینی میکردیم. این بیگمان یکی از دلایلی است که چرا این مسئله امروز به موضوعی چنین بزرگ تبدیل شده است. مردم میبینند که حوزۀ تکنولوژی در حال پیشرفت است، و گامهای بعدی به دغدغۀ فکری آنها تبدیل میشود».
باستروم این پیامدها را همچون اموری میبیند که بالقوه داروینیاند. اگر ما یک هوشِ ماشینی برتر از خودمان خلق کنیم، و سپس آن را آزاد بگذاریم تا از طریق دسترسی به اینترنت یاد بگیرد و رشد کند، دلیلی ندارد که برای تضمین سلطۀ خود استراتژیهایی را در پیش نگیرد، یعنی درست همانطور که در جهان زیستی شاهد هستیم. باستروم گاهی از مثال آدمها و گوریلها استفاده میکند تا رابطۀ یکسویۀ متعاقب را توصیف کند و، همانطور که رخدادهای ماه گذشته در باغوحش سینسیناتی نشان داد۴، این امر هرگز پایان خوشی نخواهد داشت. هوشِ فرودست همواره برای بقای خود به هوش فرادست وابسته است.
وقتی باستروم سناریوهای گوناگون را در کتاب اَبَرهوش توصیف میکند، گاهی به نظر میرسد که بیش از اندازه از آن داستانهای علمیتخیلیای خوانده است که اذعان میکند از آنها بیزار است. یکی از چشماندازها چنین است: یک سیستم هوش مصنوعی سرانجام «نانوکارخانههایی مخفی میسازد که گاز اعصاب یا رباتهای پشهمانندِ جستجوگرِ هدف تولید میکنند که ممکن است همزمان از هر متر مربع کرۀ زمین بیرون بریزند» تا انسانهای بیاهمیت و مزاحم را نابود کنند. طبق یک چشمانداز دیگر، که شاید باورپذیرتر باشد، اَبَرهوش «فرآیندهای سیاسی را در دست میگیرد، بازارهای مالی را بهنحوی پیچیده دستکاری میکند، جریان اطلاعات را تحریف میکند، یا سیستمهای جنگی ساخت انسان را هک میکند» تا نوع بشر را منقرض نماید.
آیا او خودش را در مقام یک پیامبر میبیند؟
لبخند میزند. «نه چندان. اینطور نیست
که اعتقاد داشته باشم که میدانم ماجرا چگونه رخ خواهد داد و حالا رسالتم این است که این اطلاعات را به جهانیان بگویم. بیشتر حس میکنم دربارۀ این امور کاملاً نادان و بسیار سردرگم هستم، اما وقتی سالیان دراز روی احتمالات تحقیق میکنید، میتوانید بینشهایی کوچک و جزئی در اینجا و آنجا به دست آورید. و اگر این بینشها را با بینشهای دیگری جمع کنید که ممکن است بسیاری از افراد دیگر داشته باشند، آنگاه شاید به فهم بهتری برسیم».
باستروم از مسیر جنبش فراانسانگرایی۵ به این پرسشها رسیده است. او عصر دیجیتال را عصری با پتانسیلی بیسابقه میداند، پتانسیلی برای بهینهسازی تواناییهای فیزیکی و ذهنی ما و فراتررفتن از مرزهای میرایی ما. باستروم هنوز هم آن امکانها را بهمنزلۀ سناریوی بهترین حالت در آیندۀ اَبَرهوش مینگرد، که در آن ما تکنولوژی را مهار خواهیم کرد تا بر بیماری و رنج غلبه کنیم، غذای مردم جهان را تأمین کنیم، یک آرمانشهر برای شکوفایی خلاقیت بشر ایجاد نماییم و شاید سرانجام بر مرگ غلبه کنیم. او در گذشته یکی از اعضای بنیاد آلکور بوده است، سازمانی پیشگام در سرمازیستی که وعده میدهد جسد فرد را منجمد میکند، به این امید که، یک روزی، بتوانیم به ذهن نیروی تازهای ببخشیم و بهصورتِ دیجیتال آن را آپلود کنیم و زندگیِ جاودانی را محقق کنیم. وقتی از او مستقیماً پرسیدم در این زمینه چه برنامهای دارد، خجالتزده شد.
میگوید، «عادتم این است که هرگز دربارۀ شیوۀ کفن و دفن خودم سخن نگویم».
اما آیا فکر میکند پژوهشهای سرمازیستی ارزش دارد؟
میگوید: «نسبتاً عقلانی به نظر میرسد که مردم این کار را انجام دهند، اگر توانایی مالی انجام آن را داشته باشند. وقتی میاندیشید که زندگی در آیندۀ کاملاً نزدیک چگونه میتواند باشد، کوشش برای ذخیرۀ اطلاعات در مغزتان گزینۀ محتاطانهتری به نظر میرسد، در برابر این گزینه که مغزتان را بسوزانید و دور بریزید. مگر اینکه واقعاً مطمئن باشید که این اطلاعات دیگر هرگز سودمند نخواهد بود...».
از خودم میپرسم، در چه نقطهای، خوشبینیِ فراانسانگرایانۀ او با چشماندازهای عمدتاً کابوسوارِ این فیلسوف از اَبَرهوش جایگزین شده است. او میگوید که واقعاً موضعش را تغییر نداده است، بلکه به هر دو امکان، بهشت و دوزخِ آیندۀ دیجیتال ما، در تعارضی آشوبناک پایبند است.
میگوید: «من مطالب زیادی دربارۀ اخلاقِ بهبود تواناییهای جسمی بشر در میانۀ دهۀ ۹۰ نوشتهام، زمانی که اکثر این حرفها را دانشگاهیان رد میکردند. آنها همواره چنین ذهنیتی داشتهاند که چرا اصلاً کسی روی کرۀ زمین میخواهد پیری را درمان کند؟ آنها دربارۀ افزایش بیش از حد جمعیت و ملالت زندگی طولانیمدت سخن میگفتند. آنها این نکته را درنمییافتند که تمام تحقیقات پزشکی بههمین دلیل انجام میشود: برای افزایش طولعمر. همین امر دربارۀ بهبود تواناییهای شناختی بشر نیز صادق است، اگر شما به مطالبی نگاه کنید که من در آن زمان نوشتهام، بیشتر جنبۀ خوشبینانه دارد، اما من همواره به ریسکهای وجودی نیز میاندیشیدم».
یکی از نگرانیهای همیشگی این است که چنین دستاوردهایی، مثلاً قرصهایی که میتواند شما را باهوشتر کند یا روند پیری را کند نماید، خلاف نظم طبیعی امور هستند. آیا او این نکته را مد نظر دارد؟
میگوید: «گمان نمیکنم هیچوقت امر طبیعی را با امر خوب برابر در نظر گرفته باشم. سرطان طبیعی است، جنگ طبیعی است، انگلهایی که اعضای دورنی شما را میخورند، طبیعی هستند. بنابراین، آنچه طبیعی است، هیچگاه مفهوم چندان سودمندی برای فهم این نیست که چه باید بکنیم. بله، ملاحظاتی اخلاقی وجود دارد اما شما باید مورد به مورد دربارۀ آنها داوری کنید. باید به یاد داشته باشید که من یک فراانسانگرا هستم. من قرص افزایش طولعمر خودم را همین اکنون میخواهم. و اگر قرصی باشد که بتواند توانایی شناختی مرا ۱۰ درصد افزایش دهد، من مایلم پول زیادی برایش صرف کنم».
آیا قرصهایی را امتحان کرده است که ادعا میکنند تمرکز را بهبود میبخشند؟
«آنها را امتحان کردهام، اما نه خیلی زیاد. قهوه مینوشم، آدامسِ نیکوتیندار استفاده میکنم، اما همین و بس. اما تنها دلیلی که من کاری بیش از این انجام نمیدهم آن است که هنوز متقاعد نشدهام که چیز دیگری در این زمینه مؤثر است».
او از امتحانکردن ترسی ندارد. هنگام کار، بنابر عادت، در گوشۀ دفترش
و در میان دهبیست تا لامپ مینشیند، ظاهراً برای سرسپردگی به ایدۀ روشنگری.
باستروم تکفرزند خانواده بود و در شهر ساحلی هلسینگبورگ در سوئد بزرگ شد. مثلِ بسیاری از کودکان بااستعداد دیگر از مدرسه نفرت داشت. پدرش در یک بانکِ سرمایهگذاری کار میکرد، مادرش برای یک شرکت سوئدی. به یاد نمیآورد که، سر میز شام، هیچگونه بحثی دربارۀ فلسفه یا هنر یا کتابها درگرفته باشد. در شگفت از اینکه چگونه این پرسشهای بزرگ به وسواس فکری او تبدیل شدند، از او میپرسم که آیا او کودکی دلواپس بود: آیا همواره احساسی قدرتمند دربارۀ میرایی داشت؟
میگوید: «فکر میکنم این حس را از همان اوایل کودکی داشتم. نه بدان دلیل که در آستانۀ مرگ بودم یا چیزی از این دست. اما به یاد میآورم که در کودکی بسیار به این میاندیشیدم که والدینم شاید اکنون تندرست باشند، اما قرار نیست برای همیشه قویتر یا بزرگتر از من باشند».
آیا این اندیشه او را شبها بیدار نگه میداشت؟
«این فکرها را بهمثابۀ اضطراب به یاد نمیآورم، آنها را بیشتر همچون یکجور حس افسردگی به یاد میآورم».
و آیا آن آرزوی جاری برای زندگی جاودان نیز در آن اندیشهها ریشه داشت؟
«نه ضرورتاً. من فکر نمیکنم که هیچ گونه آرزوی متفاوت خاصی وجود داشته باشد که من در مقایسه با دیگران در این رابطه داشته باشم. من نمیخواهم که به سرطان رودۀ بزرگ مبتلا شوم، چه کسی میخواهد؟ اگر من ۵۰۰ سال عمر کنم، چه کسی میداند چگونه احساساتی خواهم داشت؟ ماجرا آنقدرها وسواس دربارۀ جاودانگی نیست، موضوع فقط این است که مرگ زودهنگام در بادی امر بد به نظر میرسد».
بخش بزرگی از کتاب او پرسشهایی مطرح میکند دربارۀ اینکه چگونه میتوانیم اَبَرهوش را، چه در ۵۰ سال آینده رخ دهد، چه در ۵۰۰ سال آینده، «خوشایند» کنیم و سازگار با انسانیت خودمان. باستروم این مسئله را بیشتر چالشی تکنیکی در نظر میگیرد تا سیاسی یا فلسفی. هرچند، به نظر من چنین میرسد که بخش بزرگی از چارچوب اخلاقی ما، حس ما از خوبی، مبتنی بر تجربه و فهمی از رنج است، از بدنهای خودمان. چگونه یک هوشِ غیرسلولی میتواند این امر را «درک کند»؟
میگوید: «چیزهای بسیاری هست که ماشینها اکنون نمیتوانند بفهمند زیرا بهاندازۀ کافی باهوش نیستند، اما هنگامی که به آن اندازه باهوش شوند، من فکر نمیکنم هیچگونه مشکل خاصی در فهم مرگ و رنج بشر وجود داشته باشد». میگوید که این فهم میتواند راهی باشد برای آنکه به آنها بیاموزیم تا به ارزش انسان احترام بگذارند. «اما بستگی دارد به اینکه نظریۀ اخلاقی شما چه باشد. چنین نظریهای میتواند بیشتر دربارۀ احترام به خودمختاری دیگران باشد، یا کوشش برای دستیابی جمعی به چیزهای زیبا». فکر میکند، اما نمیداند واقعاً چگونه این چیزها باید از آغاز در ساختمان ماشینها جای داده شود تا از فاجعه جلوگیری شود. اصلاً خوب نیست که ابتدا جغدِ خود را بیاورید و سپس بیندیشید که چگونه تربیتش کنید. و در زمینۀ سیستمهای هوشمند که همین حالا هم در بسیاری از حوزههای مختلف برتر از بهترین هوشهای انسانی هستند، گفتوگو دربارۀ چگونگی انجام چنین کاری همین حالا هم دیر شده است.
احساس ضرورت فکری دربارۀ این پرسشها تا حدودی از آن چیزی نشئت میگیرد که باستروم نوعی «تجربۀ کشف» مینامد، تجربهای که در دروان نوجوانی او رخ داد. او در سال ۱۹۸۹ به کتابخانه رفته است و بهطور تصادفی کتابی را برمیدارد که گلچینی است از فلسفۀ آلمان در قرن نوزدهم، شامل آثاری از نیچه و شوپنهاور. این کتاب او را مجذوب میکند و او آن را در جنگلی نزدیک کتابخانه میخواند، در فضایی باز که معمولاً آنجا میرود تا تنها باشد و شعر بنویسد. تقریباً بیدرنگ او حسی هیجانانگیز از امکانهای یادگیری را تجربه میکند. آیا این همانند نوعی تجربۀ تغییر دین بود؟
میگوید: «بیشتر یکجور بیداری بود. احساس میکردم که گویی در طول زندگیام تا آن نقطه خوابگردی کردهام و اکنون از جهانی بزرگتر آگاه شده بودم که تصورش را هم نکرده بودم».
باستروم نخست با پیروی از راهنماییهای موجود در کتاب فلسفه، آموزش سریع خود را آغاز میکند. با تب و تاب کتاب میخواند، و در اوقات اضافی نقاشی میکشد و شعر مینویسد، سرانجام در رشتههای فلسفه و منطق ریاضی در دانشگاه گوتنبرگ فارغالتحصیل میشود، قبل از آنکه دکترای خود را در مدرسۀ اقتصادی لندن کامل کند و در دانشگاه ییل تدریس نماید.
آیا به نقاشی و نوشتن ادامه داده؟
میگوید: «در نقطهای
چنین به نظرم رسید که مطالعۀ ریاضیات مهمتر است. احساس میکردم که جهان از قبل شمار زیادی تابلوی نقاشی دارد و من متقاعد نشده بودم که به چند تابلوی دیگر هم نیاز دارد. همین را دربارۀ شعر هم میشود گفت. اما چه بسا این دنیا به چند ایدۀ دیگر دربارۀ چگونگی ادارۀ آینده نیاز داشت».
یکی از حوزههایی که هوش مصنوعی در آن در حال پیشرفت است، توانایی در ساخت موسیقی و آفرینش آثار هنری است، و حتی نوشتن. آیا تصور میکند که این قلمرو نیز سریعاً به استعمار یک اَبَرهوش در خواهد آمد، یا آخرین پناهگاه بشر خواهد بود؟
«من این ادعا را قبول ندارم که امروز آهنگسازان هوش مصنوعی میتوانند با آهنگسازان بزرگ رقابت کنند. شاید در قطعاتی کوتاه بتوانند اما در کل یک سمفونی نمیتوانند. و در رابطه با هنر، هر چند آن را میتوان کپی کرد، اما خود این فعالیت دارای ارزش است. شما هنوز برای خود نقاشی است که نقاشی میکنید».
اصالت، ساختۀ انسان، بهطور روزافزون از اهمیت برخوردار میشود؟
«بله و فقط در رابطه با هنر چنین نیست. اگر و هنگامی که ماشینها بتوانند همه چیز را بهتر از آن انجام دهند که ما میتوانیم، ما به انجام آن چیزها ادامه خواهیم داد زیرا از انجام آنها لذت میبریم. اگر مردم گلف بازی میکنند، بدان دلیل نیست که نیاز دارند توپ بهطور کارآمدی در سوراخهایی متناوب جای بگیرد، به علت این است که از انجام آن لذت میبرند. هر چه ماشینها بیشتر بتوانند هر کاری را انجام دهند که ما میتوانیم انجام دهیم، ما توجه بیشتری به کارهایی خواهیم داشت که به آنها برای خودشان ارزش مینهیم».
باستروم، در اوایل کار فکری خود، برای بهبود مهارتهای ارتباطیاش، چند بار به اجرای استندآپ کمدیهای فلسفی پرداخت. وقتی با او صحبت میکنید، یا آثارش را میخوانید، میبینید که در استدلالهای او هیچگاه رگهای از طنز فاضلانه، در تحلیلِ ابعادِ کلانِ مسائل غایب نیست. محور نمودارهای عجیب و غریبِ مقالات او، با بررسی دقیقتر، بر حسب معیارهایی مثل «تحملپذیر»، «خردکننده» و «جهنمی» تنظیم میشود. در مقدمهاش بر اَبَرهوش، این جمله که «بسیاری از نکات این کتاب احتمالاً نادرست هستند»، یک پانویس دارد که نوشته است: «من نمیدانم کدام نکات نادرست هستند». آیا گاهی احساس میکند شخصیت داگلاس آدامز۶ را به خود گرفته است؟
میگوید: «گاهی نوشته عجیب به نظر میرسد. اما از دیدگاهی دیگر، این هم عجیب به نظر میرسد که بیشتر جهانیان نسبتبه مهمترین چیزهایی که قرار است در قرن بیستویکم رخ دهد، کاملاً بیتوجه هستند. حتی کسانی که دربارۀ گرمایش جهانی صحبت میکنند، هرگز هیچ تهدیدی را از ناحیۀ هوش مصنوعی ذکر نمیکنند».
زیرا این موضوع پیام آنها را تضعیف میکند؟
«شاید. به نظر من چنین میرسد که در هر زمانی در تاریخ تنها یک دغدغۀ جهانی رسمی میتواند وجود داشته باشد. آن دغدغه اکنون تغییرات اقلیمی است، یا گاهی هم تروریسم. وقتی من جوان بودم، جنگ هستهای بود. سپس افزایش بیش از حد جمعیت بود. برخی از برخی دیگر معقولتر هستند، اما انتخاب آنها واقعاً کاملاً تصادفی است».
باستروم تمایل دارد و میکوشد تا این تصادفیبودن را با استفاده از ریاضیات تحلیل کند. آیا فکر میکند که نگرانیها دربارۀ هوش مصنوعی بهعنوان تهدیدی قریبالوقوعتر، در آیندۀ نزدیک، بر نگرانیها دربارۀ گرمایش جهانی غلبه خواهد کرد؟
میگوید: «بعید میدانم. این اتفاقات تدریجی و نامحسوس رخ خواهد داد، بدون آن که ما واقعاً به آن بپردازیم».
اگر بخواهیم منشأ ظهور این اتفاقات را جستوجو کنیم، گوگل، که در حال تخصیص مقدار زیادی از منابع بیسابقۀ خود به تکنولوژی یادگیری عمیق است (بهویژه با خرید شرکتی پیشگام در هوش مصنوعی به نام دیپمایند، در سال ۲۰۱۴)، نقطۀ معقولی برای شروع به نظر میرسد. گوگل ظاهراً دارای یک هیئت اخلاق هوش مصنوعی است تا با این پرسشها روبهرو شود، اما هیچکس نمیداند اعضای آن چه کسانیاند. آیا باستروم به شعار آنها، یعنی «اهریمنی نباشید»، ایمان دارد؟
«بیگمان در بین افراد حاضر در دنیای تکنولوژی، فرهنگی وجود دارد که میخواهند احساس کنند که دارند کاری انجام میدهند که فقط برای پول درآوردن نیست، بلکه دارای نوعی هدف اجتماعی مثبت است. این آرمانگرایی وجود دارد».
آیا او میتواند در شکلدهی به سمتوسوی آن آرمانگرایی نقشی ایفا کند؟
میگوید: «مسئله خیلی این نیست که تأثیر خودِ فرد مهم باشد. هر کسی که دارای نقشی در برجستهسازی
این استدلالات است، ارزشمند خواهد بود. اگر وضعیت آدمی واقعاً قرار باشد بهطور بنیادی در قرن ما دگرگون شود، ما در مقطعی کلیدی از تاریخ قرار داریم». و اگر پیشبینیهای بیشتر پوچانگارانۀ باستروم درست باشد، ما تنها یک بار فرصت داریم که ماهیت هوش جدید را درست بسازیم.
باستروم سال گذشته پدر شد. (ازدواجش عمدتاً چیزی است که با اسکایپ جلو میرود، همسرش یک پزشک ساکن ونکوور است). قبل از آن که بروم، از او میپرسم که آیا پدرشدن، درک او از واقعیت این مسائل آیندهنگرانه را تغییر داده است؟
«تنها از این لحاظ که پدرشدن بر این چشمانداز دوگانه تأکید دارد، سناریوهای مثبت و منفی. این نوع اندیشهسازی، اینکه جهان ما ممکن است بدین شیوه کاملاً دگرگون شود، همواره به نظر میرسد پذیرش آن در سطح فردی بسیار سختتر است. من گمان میکنم که تا آنجا که بتوانم به هر دو چشمانداز در ذهن خودم فضا خواهم داد».
به او میگویم در همان هنگامی که او آن آزمایشهای فکری را در سر میپروراند، نیمی از مردم جهان دغدغۀ این را دارند که وعدۀ غذایی بعدی آنها از کجا باید تأمین شود. آیا تهدید اَبَرهوش در کل نوعی اضطراب نخبهگرایانه است؟ آیا اکثر ما بدان دلیل به آیندۀ بسیار دور نمیاندیشیم که برای ما در زمان حال بیش از حد کافی نگرانی وجود دارد؟
میگوید: «اگر این کار به نقطهای رسیده بود که جهان در حال صرف صدها میلیارد دلار روی این موضوع بود و هیچ پولی صرف کارهای معمولیتر نمیکرد، آنگاه میتوانستیم آن را زیر سؤال ببریم. اگر شما به تمام چیزهایی نگاه کنید که جهان در حال صرف پول برای آنهاست، آنچه ما داریم انجام میدهیم از شندرغاز هم کمتر است. شما به یک شهر سفر میکنید و از فرودگاه به هتل میروید. در طول بزرگراه شاهد آنهمه ساختمانهای عظیم از شرکتهایی هستید که هرگز نام آنها را نشنیدهاید. شاید آنها در حال طراحی یک پویش جدید برای تبلیغ نوعی تیغ صورتتراشی هستند. شما از کنار صدها نمونه از این ساختمانها عبور میکنید. هر یک از این شرکتها، منابع مالی بیشتری از کل آن پولی در اختیار دارد که نوع بشر صرف این حوزه میکند. ما نیمی از یک طبقه از یک ساختمان را در آکسفورد در اختیار داریم، و دو یا سه گروه دیگر وجود دارد که همانند ما در این حوزه تحقیق میکنند. بنابراین، من فکر میکنم این کار مشکلی ندارد».
میپرسم که ما در مقام افراد و شهروندان چگونه میتوانیم دربارۀ این ریسکهای معطوف به وجود گونۀ ما بیندیشیم و آنها را چارچوببندی کنیم؟ باستروم اندکی شانه بالا میاندازد. «اگر ما به این چارچوب زمانی بسیار بلندمدت بیندیشیم، آنگاه روشن میشود که کارهای بسیار کوچکی که اکنون انجام میدهیم، میتواند تفاوتی چشمگیر در آن آینده ایجاد کند».
یک مقالۀ جدید باستروم، که من بعدتر در خانه آن را خواندم، قاعدۀ کلی کوچکی را مطرح میکند که ارزش دارد به خاطر سپرده شود. باستروم آن را «ماکسیپک» مینامد. این قاعده مبتنی بر این ایده است که «وقتی ما براساس یک دغدغۀ بیطرفانه برای انسانیت بهمنزلۀ یک کل کار میکنیم، هدفِ کاهشِ ریسکهای وجودی باید اولویت اصلی باشد». ماکسیپک یعنی چه؟ کوشش برای آن که «احتمال یک ’نتیجۀ خوب‘ را بیشینه کنیم، و یک نتیجۀ خوب هم هر نتیجهای است که از فاجعۀ وجودی پرهیز میکند».
بیگمان این قاعده ارزش امتحان را دارد.
پینوشتها:
* این مطلب را تیم آدامز نوشته و در تاریخ ۲۸ سپتامبر ۲۰۱۷ با عنوان «Artificial intelligence: We’re like children playing with a bomb» د
** تیم آدامز (Tim Adams) از نویسندگان ثابت بخش آبزرور در گاردین است که معمولاً دربارۀ اقتصاد و تکنولوژی مینویسد.
[۱] Future of Humanity Institute
[۲] Superintelligence: Paths, Dangers, Strategies
[۳] nuclear winter: از عواقب اقلیمی احتمالی یک جنگ هستهای که در نتیجۀ آن امکان رشد گیاهان و زیست حیوانات از میان میرود [مترجم].
[۴] یک گوریل در این باغوحش بهدلیل ورود یک پسربچه به بخش نگهداری آن با تیراندازی کشته شد [مترجم].
[۵] transhumanist movement
[۶] Douglas Adams: نویسندۀ آمریکایی و فیلمنامهنویس برخی از آثار آلفرد هیچکاک [مترجم].