دروغ اگر دروغ باشد، فوراً در کنج ذهن شنونده جا خوش می‌کند. پس از چند لحظه، چند روز، یا حتی چند سال، نوبت به این می‌رسد که فرد بیچاره ترمزدستی را بکشد و دربارۀ درستی باور خود کمی بیندیشد. روان‌شناسانِ بسیاری در سال‌های اخیر به این نتیجه رسیده‌اند که احتمال این توقف و اندیشیدن خیلی کم است. کافی است دروغی بشنویم و رسانه‌ها هم چندبار در گوشمان زمزمه‌اش کنند تا درعمل تمام راه‌های نجات از آن دروغ بر رویمان بسته شود.

طی دهه‌ها، پژوهشگران با ماهیت دروغ دست‌وپنجه نرم کرده‌اند: چگونه به وجود می‌آید؟ چه تأثیری بر مغزمان می‌گذارد؟ آیا می‌توانیم با آن مبارزه کنیم؟ پاسخ این سؤالات چندان امیدوارکننده نیست. مبارزه با دروغ‌ها طاقت‌فرساست. دروغ‌ها اثراتی مخرب دارند و شاید بدتر از همه اینکه اگر محتوایشان در تلقی مردم از خودشان به‌خوبی طنین‌انداز شود، اصلاح آن‌ها تقریباً غیرممکن خواهد بود.

وقتی یک دروغ به مغزتان می‌رسد، چه اتفاقی می‌افتد؟ مدلی را که حالا معیار محسوب می‌شود اولین بار روان‌شناس دانشگاه هاروارد، دنیل گیلبرت، بیش از ۲۰ سال پیش ارائه کرد. گیلبرت استدلال می‌کند که افراد دنیا را در دو گام می‌بینند. ابتدا لحظه‌ای کوتاه، دروغ را به عنوان حقیقت می‌پذیریم؛ به منظور درک چیزی، اول باید آن را قبول کنیم. مثلاً اگر کسی (فرضاً) به ما بگوید در شمارش آرای ریاست جمهوری در ویرجینیا تقلب شده، باید لحظه‌ای بپذیریم که این تقلب واقعاً اتفاق افتاده است. آن وقت است که گام دوم را برمی‌داریم: یا فرایند تصدیق ذهنی را کامل می‌کنیم (بله، تقلب!) یا آن را رد می‌نماییم (چی؟ امکان نداره). گام اول بخشی طبیعی از تفکر است که خودکار و بدون هیچ‌گونه تلاش صورت می‌گیرد، اما متأسفانه گام دوم می‌تواند به‌آسانی دچار اختلال گردد. گام دوم نیازمند تلاش است: باید به‌طور فعال انتخاب کنیم که هر سخن را بپذیریم یا رد کنیم. در برخی شرایط، این راستی‌آزمایی رخ نمی‌دهد. به گفتۀ گیلبرت، ذهن انسان «وقتی با کمبود زمان، انرژی یا شواهد قاطع روبه‌رو می‌شود، ممکن است نتواند مفاهیمی را که در مرحلۀ دریافت به صورت غیرداوطلبانه پذیرفته رد کند».

مغز ما به‌خصوص زمانی در مواجهه با دروغ دچار ضعف است که دروغ‌ها نه تکی، بلکه رگباری به گوش ما می‌رسند. وقتی ما با سخنان غلط بمباران می‌شویم، مغزمان چنان به کار واداشته می‌شود که دیگر نمی‌تواند همه چیز را الک کند. این را «بار شناختی»۱ می‌گویند، یعنی زمانی که منابع شناختی محدود ما تحت فشار قرار می‌گیرد. حرف‌ها هر قدر هم غیرعملی باشند، تعداد زیادی از آن‌ها

هر نوع تکرار دروغ، حتی برای رد آن، فقط دروغ را تقویت می‌کند
را بگویید و ببینید مردم چقدر خوب برخی از آن‌ها را جذب و باور می‌کنند. بالاخره کار به جایی می‌رسد که بدون اینکه خودمان متوجه شویم، مغزمان دست از تلاش برای فهمیدن اینکه چه چیز درست است برمی‌دارد.

تکرار مداوم یک دروغ خاص (نه‌فقط رگباری دَرهم) بالاخره آن را به‌عنوان حقیقت در ذهنمان رقم می‌زند. این اثر را «حقیقت موهوم»۲ می‌نامند که اولین بار در دهۀ ۱۹۷۰ کشف شد و اخیراً با رشد اخبار دروغ نمود یافته است. در اولین نمود این پدیده، گروهی از روان‌شناسان از افراد خواستند تا، سه بار در طی دوره‌ای دوهفته‌ای، یک‌سری سخنان را به‌عنوان درست یا غلط ارزیابی کنند. برخی سخنان فقط یک بار پدیدار شد و برخی دیگر تکرار شد. احتمال اینکه سخنان تکراری، صرف‌نظر از صحت و سقمشان در بار دوم و سوم حقیقت ارزیابی شوند بسیار بیشتر از سخنانی بود که یک بار گفته می‌شد. اگر دروغی خاص را بارها و بارها تکرار کنید، این باور کم‌کم در مغز مردم نفوذ می‌کند.

اما خبری واقعاً بد برای تمام کسانی که امید دارند با ادعاهای غلط مقابله کنند: هر نوع تکرار دروغ، حتی برای رد آن، فقط دروغ را تقویت می‌کند. مثلاً اگر بگویید «درست نیست که تقلب رخ داده است» یا سعی کنید این ادعا را با شواهد رد کنید، خیلی وقت‌ها مخالف آنچه می‌خواهید اتفاق می‌افتد. بعداً وقتی مغز می‌خواهد این اطلاعات را به یاد آورد، بخش اول جمله معمولاً گم شده و فقط بخش دوم باقی می‌ماند. در پژوهشی در سال ۲۰۰۲، کالین سیفرت، روان‌شناس دانشگاه میشیگان دریافت که حتی اطلاعات تکذیب‌شده (که قبول داریم تکذیب شده‌اند) هم ممکن است همچنان بر قضاوت‌ها و تصمیماتمان تأثیر بگذارد. مثلاً در یک آتش‌سوزی، حتی زمانی که به مردم گفتند عامل آتشْ رنگ و سیلندرهای گازِ باقی‌مانده در کمد نبوده، آن‌ها همچنان از این اطلاعات استفاده کردند (مثلاً می‌گفتند که علت شدت زیاد آتش مواد فرار بوده است)، درحالی‌که اصلاحیۀ این اطلاعات را هم قبول کرده‌اند. وقتی تناقض پاسخ‌هایشان به آن‌ها گوشزد می‌شد، چیزهایی می‌گفتند نظیر اینکه «ابتدا سیلندرها و قوطی‌ها در کمد بوده‌اند، اما سپس آن‌ها را برداشته‌اند»؛ این کار باعث ایجاد یک فکت جدید می‌شود که تبیین می‌کند چرا آن‌ها همچنان به اطلاعات غلط اتکا می‌کنند.

در سیاست، اطلاعات غلط قدرت خاصی دارد. اگر اطلاعات غلط با باورهای ازپیش‌موجود همخوانی داشته باشد (که معمولاً 
اگر اطلاعات غلط با باورهای ازپیش‌موجود همخوانی داشته باشد، آنگاه تلاش برای رد آن اثری عکس دارد
در استدلال‌های جانبدارانه به همین شکل است)، آنگاه تلاش برای رد آن اثری عکس دارد و باعث می‌شود که آن اطلاعات عمیق‌تر در ذهن فرد ریشه بدواند. وقتی یک سیاست‌مدار بتواند حس خشم اخلاقی را برانگیزد، حقیقت دیگر اهمیتی نخواهد داشت. مردم با احساساتشان همراه می‌شوند، از نهضت حمایت می‌کنند و در هویت گروهیِ مرکزیِ خود سنگر می‌گیرند. حقیقت امر دیگر واقعاً هیچ اهمیتی نخواهد داشت.

برندِن نایهان پژوهشگر علوم سیاسی در دانشگاه دارت‌موث است، که به مطالعۀ باورهای غلط می‌پردازد. او دریافته که وقتی اطلاعات غلط ماهیتی سیاسی داشته و بخشی از هویت سیاسی‌مان می‌شود، اصلاح دروغ‌ها تقریباً غیرممکن خواهد بود. مثلاً مردم مقاله‌ای خوانده بودند که با سخن جرج بوش آغاز می‌شد، مبنی بر اینکه عراق ممکن است به شبکه‌های تروریستی سلاح بدهد. همین مقاله در قسمت‌های بعد نوشته بود که عراق در زمان حملۀ آمریکا اصلاً سلاح کشتار جمعی نداشته است. اما این سوءبرداشت اولیه در میان جمهوری‌خواهان باقی ماند و حتی خیلی وقت‌ها هم بر آن تأکید هم داشتند. آن‌ها، در مواجهه با هجمه‌ای فرضی به هویتشان، ذهنیتشان را تغییر ندادند تا حقیقت را بپذیرند: بلکه متعجباً بر همان دیدگاه‌هایی که غلط‌بودن آن‌ها نشان داده شده بود بیش از پیش پافشاری می‌کنند.

در رابطه با ترامپ، نایهان اذعان می‌کند که ادعاهای مرتبط با ملی‌گرایی قومیتی (مثلاً ترامپ در اولین کمپین خود اعلام کرده بود که مکزیک افراد «متجاوز به عنف» را به این سوی مرز می‌فرستد) بر هستۀ هویت ما به‌عنوان انسان می‌نشیند و «ممکن است باعث شود افراد تمایل یا توانایی چندانی برای ارزیابی تجربی سخن نداشته باشند». اگر شما همین الآن باور دارید که مهاجران فرصت‌های شغلی‌تان را در خطر می‌اندازند، از کجا معلوم که پاکدامنی دخترانتان هم در خطر نباشد؟ یا به بیان استیون پینکر، روان‌شناس دانشگاه هاروارد، وقتی ترامپ این رابطۀ احساسی را برقرار می‌کند، «او هر چه می‌خواهد می‌گوید و آن‌ها به دنبالش راه می‌افتند».

پس برای اصلاح باورهای غلط و سوءبرداشت‌های سیاسی باید چکار کنیم؟ در اینجا هم متأسفانه خبرهای چندان نویدبخشی نداریم. مقاله‌ای در سال ۲۰۱۳ را در نظر بگیرید که، به‌طور خاص، در پی اصلاح سوءبرداشت‌های سیاسی بود. در این پژوهش، از گروهی از افراد پرسیدند که تا چه حد از چند سیاست مشخص دولتی اطلاع دارند. بعد از سؤالات، همۀ شرکت‌کنندگان مقاله‌ای خبری را خواندند که مخصوص این پژوهش نوشته شده بود و سیاست مورد نظر را شرح می‌داد. سپس هر شرکت‌کننده 
تلقی ما از حقیقت بسیار بیشتر از آنچه مایلیم بپذیریم شکننده است، به‌خصوص در عرصۀ سیاسی
اصلاحیه‌ای بر این مقاله مشاهده کرد که می‌گفت این مقاله تعدادی اشتباه عینی داشته و این اشتباهات را توضیح می‌داد. اما تنها کسانی که پس از خواندن اصلاحیه واقعاً باورهای غلطشان را تغییر دادند آن‌هایی بودند که ایدئولوژی سیاسی‌شان از قبل با اطلاعاتِ درست همخوانی داشت. اما آن‌ها که باورهایشان خلاف این اصلاحیه بود چه؟ آن‌ها نظرشان را در مورد صحت روزنامه‌ای تغییر دادند که می‌تواند چنین اصلاحیۀ دروغینی منتشر کند.

اما واقعیت ترسناک‌تر این است که دروغگو ممکن است مغز همه را استعمار کند. وقتی در محیطی هستیم که رئیس آن مرتباً دروغ می‌گوید، اتفاق وحشتناکی می‌افتد: دیگر به آن دروغگو به‌عنوان یک دروغگو واکنش نشان نمی‌دهیم. دروغگویی او عادی می‌شود. حتی احتمال اینکه خودمان هم دروغ بگوییم بیشتر می‌شود. فایری‌کوشمن، روان‌شناس اخلاقی دانشگاه هاروارد، معتقد است «شهود اخلاقی ما را بازی‌هایی منحرف می‌کنند که انجام می‌دهیم». اگر ما را در محیطی قرار دهند که مجموع‌صفر۳ و «بخور تا خورده‌نشوی»۴ باشد، به زبان نظریۀ بازی به «پناهندگانی شهودی»۵ تبدیل می‌شویم، یعنی غریزۀ اولمان این است که با دیگران همکاری نکنیم، بلکه براساس منفعت شخصی‌مان عمل نماییم. این می‌تواند باعث شود خودمان هم دروغ‌ها را اشاعه دهیم. کوشمن می‌گوید این جهان‌بینی [مجموع‌صفر، من پیروز شوم تو شکست خورده‌ای] در فرهنگ‌هایی شایع‌تر است که حاکمیت قانون در آن‌ها ضعیف، فساد بالا، و اعتماد عمومی کم است.

واقعیت تأسف‌بار این است که تلقی ما از حقیقت بسیار بیشتر از آنچه مایلیم بپذیریم شکننده است، به‌خصوص در عرصۀ سیاسی و به‌خصوص وقتی فردی صاحب قدرت این تلقی حقیقت را تحریف می‌کند. به قول الکساندر بین، فیلسوف قرن نوزدهم اسکاتلند، «بزرگ‌ترین اشتباهِ ذهن انسان باور زیاد از حد است». باورهای غلط را وقتی نهادینه شوند سخت می‌توان اصلاح کرد.


پی‌نوشت‌ها:
• این مطلب را ماریا کانیکووا نوشته است و برگرفته است از مطلب «Trump’s Lies vs. Your Brain» که در تاریخ ژانویۀ ۲۰۱۷ در وب‌سایت پولیتیکو منتشر شده است 
•• ماریا کانیکووا (Maria Konnikova) مقاله‌نویس نیویورکر است و آخرین کتاب او بازی اعتماد: چرا هر بار فریب آن را می‌خوریم؟ (The Confidence Game: Why We Fall for It … Every Time) نام دارد.
[۱] Cognitive load
[۲] Illusory truth
[۳] Zero-sum
[۴] Party-eats-party
[۵] Intuitive defector