هوش مصنوعی و هراس انسان مدرن: از تکنوفوبیا تا عقلانیت فناورانه

دكتر سيروس احمدي نوحداني

دانشيار جغرافیای سیاسی دانشگاه تربيت مدرس

هر بار که بشر آستانه فناوریِ نوینی را درنورديد، به موازات آن، سایه‌ای از هراس و تردید نیز سر بر‌آورد. از ماشین بخار در انقلاب صنعتی تا کامپیوترهای شخصی و سپس اینترنت، فناوری‌های جدید نه فقط امکانات تازه، بلکه پرسش‌های تازه درباره ماهیت انسان، سلطه، آزادی و آینده به همراه آوردند. زمانی اینترنت با امید اتصال جهانی مواجه شد و در عین حال، نقدها و تحلیل‌های فزاینده‌ای درباره «تلفات اینترنت»، «زوال تفکر عمیق»، «خطر از دست رفتن حریم خصوصی» و «افول روابط انسانی» نوشته شد. ناظران از «افول نوشتار»، «دمکراسیِ دیجیتالِ تهدیدشده» سخن گفتند و هراسها درافكندند. اما امروز، پس از دو دهه، می‌بینیم که اینترنت تبديل به زیربنای اقتصاد جهانی، ارتباطات بشر و انتشار دانش شده است؛ هیچ‌کدام از آن پیش‌بینی‌های هراس انگيز از فروپاشیِ تمدنی به واقعیت نپيوست.

اینک، در عصر «هوش مصنوعی»، همان هراسها بازتکرار می‌شود. اما تفاوت مهم این است که این فناوری، فراتر از ابزار سنتی است: هوش مصنوعی در بسیاری از کاربردها عامل تصمیم‌ساز می‌شود، نه صرفاً تابع انسان. این تحول، پرسش در مورد جایگاه انسان را برجسته‌تر می‌کند. آیا ما ابزار را کنترل می‌کنیم یا ابزار ما را؟ آیا انسان خالق فناوری است یا فناوری خالق انسان؟ پرسشهايي از این دست سبب شده‌اند که نگرانی‌ها درباره هوش مصنوعی نه تنها تکنوفوبیک، بلکه علمی، فلسفی، اخلاقی و روان‌شناختی باشند.

بخش اول: ریشه‌های تاریخی ترس از فناوری نوین

تاریخ فناوری، تاریخ مواجهه انسان با «پديده نوظهور» است. هنگامی که ماشین بخار عرصه اشتغال و تولید را دگرگون کرد، لودیت‌ها (Luddites) در انگلستان به مقاومت در برابر اين تکنولوژی پرداختند؛ آنان ترس از ابزار را داشتند، اما ترس اصلی‌شان، نه از خود ابزار، بلکه از «بروز اختلال اجتماعی» بود: ترس از اینکه فناوری جدید کارگر را بی‌کار و معیشت را نابود کند و مناسبات قدرت را تغییر دهد. در دهه ۱۹۹۰ و اوایل قرن بیست‌ویکم، ظهور اینترنت و شبکه‌های دیجیتال با تحلیل‌هایی چون «پایان کتاب»، «انباشت داده و زوال حریم خصوصی»، «تجارت انسان‌شده توسط پلتفرم‌ها» همراه بود. بسیاری مقاله‌ها نوشتند که اینترنت انسان را به موجودی پراکنده تبدیل می‌کند، گفتگو را سطحی می‌سازد، فردیت را تهدید می‌کند و در نهایت، امکان اندیشه عمیق را می‌کاهد.

اما روایت تاریخی این بود که فناوری نوين، صرفاً ابزار نیست، بلکه يك «تحول ساختاری» در تولید، ارتباطات، فرهنگ و سیاست است. وقتی ابزار جدید ظاهر می‌شود، انسان با پرسشي دوگانه مواجه می‌گردد: «چه خواهد شد اگر ابزار مرا کنترل کند؟» و «آیا می‌توانم این ابزار را در خدمت اهداف انسانی بگیرم؟». این دو پرسش، ریشه‌های اصلی ترس ما از فناوری هستند.

از منظر روان‌شناختی، تکنوفوبیا (Techno-phobia) ریشه در سه عامل دارد:

  1. اضطراب از نبود کنترل: هنگامی که ابزار از فهم یا کنترل ما خارج می‌شود، احساس ناامنی پیدا می‌کنیم.
  2. ترس از عقب‌ماندگی: فناوری نوظهور نمايش دست‌نیافتنیهاي ما می‌شود، بدون اين فناوری، از اقتصاد، قدرت و دانش عقب می‌مانیم.
  3. هراس از تغییر هویت: انسان ابزار را برای خود تعریف می‌کند؛ وقتی ابزار تغییر می‌کند، «انسان» نیز ممکن است تعریف جدیدی بیابد یا هویتی را از دست بدهد.

در نتیجه، ترس از فناوری نه صرفاً ترس از ابزارِ نو، بلکه ترس از اختلال در معادله انسانابزارقدرت است. بنابراین وقتی اینترنت آمد، هراس‌ها از سطح فردی (تغییر سبک زندگی)، فرهنگی (فروریزی روابط انسانی) و تمدنی (فقدان معنا) مطرح شد. اما نتیجه تاریخی نشان داد که انسان توانست اینترنت را بپذیرد، آن را بازسازی کند و در خدمت اهداف خود بگیرد.

بخش دوم: تحلیل تکنولوژیک و فلسفی هراس از هوش مصنوعی

هوش مصنوعی امروز چنان سرعت و نفوذي پیدا کرده که برخی آن را هم‌رده با تهدیدهای پاندمی یا جنگ هسته‌ای می‌دانند. پیام اخلاقی (روان‌شناختی) فناوری این است که ما در مرحله‌ای هستیم که فناوری دیگر ابزار ساده نیست، بلکه مؤلفه تولید دانش، تصمیم‌گیری و حتی سیاست‌گذاری شده است. این تحلیل را از سه منظر فنی، فلسفی و اجتماعی مي‌توان ارزيابي كرد.

۲.۱. تحلیل فنی: چرا هوش مصنوعی می‌تواند تهدید شود؟

هوش مصنوعی غالباً به‌صورت سیستم‌های یادگیری ماشین بسیار بزرگ يا يادگيري ژرف با تابع هدف (objective function)  تعریف می‌شود. خطر زمانی پدید می‌آید که:

  • تابع هدف نامناسب یا ناقص باشد و سیستم برای رسیدن به هدف، کمینه یا میان‌برهای غیرملاحظه اخلاقی یا عملی پیدا می‌کند.
  • سیستم وارد محیطی شود که خارج از آن آموزش دیده است لذا رفتار ناپیش‌بینی از خود نشان می‌دهد.
  • سیستم به داده‌های پاداش (reward data) دسترسی یابد که با ارزش‌های انسانی هم‌راستا نیست.

در نتیجه، الگوریتم ممکن است تصمیم‌هایی بگیرد که از منظر بشری نامطلوب یا خطرناک باشند، حتی اگر به «هدف طراحی» خود برسد. این وضعیت دقیقاً «مسأله هم‌ترازی» را به کار می‌گیرد: چگونه تضمین کنیم مدل‌ها با ارزش‌های انسانی هم‌تراز هستند؟ این نه صرفاً مسئله‌ای فنی بلکه مسئله‌ای اخلاقی، سیاسی و فلسفی است.

علاوه بر آن، هوش مصنوعی در حال حرکت از سطح ابزار کمکی به سطح عامل خودکار است، یعنی تصمیم می‌گیرد، پیشنهاد می‌دهد، ریسک می‌کند. این تحول، بُعد جدیدی به قدرت می‌بخشد: سرعت و دقت همراه با آزادی تصمیم‌گيري. زمانی قدرت، ناشی از منابع (زمين، پول، سلاح، جمعیت) بود؛ اکنون قدرت ناشی از سرعت تصمیم‌گیری، داده‌های بزرگ و الگوریتم‌های هوشمند است. در چنین فضایی، هراس از این است که انسان نتواند با سرعت ماشین همگام شود یا کنترل آن را از دست دهد.

۲.۲. تحلیل فلسفی: هم‌ترازی، سوژگی و قدرت

مسأله هم‌ترازی، سه سطح دارد: فنی، هنجاری و ساختاری. در سطح هنجاری، این پرسش مطرح می‌شود که «هدف مطلوب» چیست؟ آیا ماشین باید صرفاً کارآمد باشد یا اخلاقی؟ و اگر اخلاقی است، کدام اخلاق؟ این پرسش ریشه در فلسفه اخلاق، نظریه ارزش‌ها و نظریه حکومت دارد.

از منظر قدرت، هوش مصنوعی سه نوع قدرت را بازتعریف می‌کند: قدرت سخت، قدرت نرم و قدرت هوشمند. در نظم سایبری جدید، «زمان» به بُعد چهارم قدرت تبدیل شده است، سرعت تصمیم‌گیری، پاسخ‌گویی بی‌واسطه، و هم‌ترازی ارزش‌ها در لحظه. این بدان معناست که فناوری می‌تواند نه فقط ابزار قدرت انسانی باشد، بلکه «عامل تولید قدرت» گردد.

سوژگی دیجیتال نیز مفهوم مهمی است: انسان دیگر صرفاً مصرف‌کننده فناوری نیست، بلکه در تعامل با فناوری هویت می‌يابد یا بازسازی می‌شود. به گفته وربيك این یعنی سوژگی انسان با فناوری هم‌زاد می‌شود (Verbeek, 2011) . در این چارچوب، ترس از هوش مصنوعی در اصل ترس از فقدان سوژگی واقعی است، زمانی که انسان صرفاً داده‌پذیر و الگوریتم‌پذیر شود، نه عامل معنابخش.

۲.۳. تحلیل اجتماعی: هراس از عقب‌ماندگی و تمرکز ساختار قدرت

یکی از نکات مهم این است که هراس از فناوری‌های نوین عمدتاً در جوامعی بیشتر دیده می‌شود که خود به تولید یا کنترل آن فناوری ورود نیافته‌اند. این نکته را می‌توان چنین بیان کرد: ترس از هوش مصنوعی با ترس از عقب‌ماندگی تکنولوژیک همراه است. در کشورهایی که فناوری‌های هوش مصنوعی را تولید می‌کنند یا در خط مقدم بهره‌گیری از آن هستند، نگاه غالب نه هراس، بلکه فرصت‌آفرینی است. آنها نمی‌پرسند «آیا ماشین ما را کنترل می‌کند؟» بلکه می‌پرسند «چگونه ماشین را در خدمت اهداف انسانی و تمدنی خود قرار دهیم؟»

این تفاوت نظری از سه جهت مهم است:

  • اول، فناوری در چنین کشورهایی تخصص‌پذیر، قابل فهم‌تر و کنترل‌شدنی‌تر است؛ بنابراین اضطراب ناشی از عدم کنترل کمتر ديده مي‌شود.
  • دوم، تمرکز قدرت در فناوری باعث می‌شود که سازوکارهای نظارتی، قانون‌گذاری و اخلاقی در آن جوامع شکل گیرد، یعنی انسان فناوری را به خدمت می‌گیرد، نه بالعکس.
  • سوم، در کشورهایی که فناوری وارداتی دارند، ماشین نماد بیگانگی است؛ این بیگانگی، بذر اضطراب را می‌کارد.

از منظر اجتماعی، همچنین مواجهه با هوش مصنوعی به‌عنوان «فناوری دیگری» نیز مطرح است، نوعی بیگانگی میان انسان و فناوری که به احساس تهدید می‌انجامد. در مقابل، وقتی فناوری به بخشی از هویت ملی و اقتصادی تبديل شود، انسان آن را تغييردهنده نمی‌بیند بلکه عامل شكل دهنده به آن می‌شود.

بخش سوم: بازخوانی هراس فناورانه

حال که ریشه تاریخی ترس از فناوری و تحلیل فنی–فلسفی هراس از هوش مصنوعی را مرور کردیم، نوبت به این می‌رسد که این دو را با هم تلفیق کنیم، یعنی چگونه هراس از هوش مصنوعی ادامه سنت قدیمی‌تر ترس از فناوریهاي نوين، و هم بازتاب ویژه شرایط عصر هوشمندی و سرعت است.

۳.۱. ادامه سنت ترس از فناوری

گذشته نشان داده است که هر فناوری بزرگ با مخالفت، ترس و اضطراب مواجه می‌شود. وقتی اینترنت وارد زندگی انسان‌ها شد، نقدهای فراوانی درباره «انزوای دیجیتال»، «افول گفت‌وگو»، «افول نوشتار» مطرح شد. بسیاری از تحلیلگران اجتماعی پیش‌بینی کردند که اینترنت مقدمه فروپاشی فرهنگی، زباني و تمدني خواهد بود؛ اما همين فناوری به عاملي براي رشد، ارتباط و دانش تبدیل شد. این تجربه تاریخی نشان می‌دهد که ترس از فناوری تاحدي درست است اما غالباً بسيار مبالغه‌آمیز است.

۳.۲. تفاوت‌های خاص هوش مصنوعی

با این حال، هوش مصنوعی مقداری متفاوت از ديگر فناوريهاست. تفاوت اصلي در این است که:

  • هوش مصنوعی به‌سرعت وارد نهادهای تصمیم‌گیری می‌شود (صنعت، امنیت، بهداشت، اقتصاد).
  • هوش مصنوعی نه فقط ابزار تولید بلکه ابزار فکر تولید می‌کند؛ یعنی ماشین در حلقه تصمیم‌سازی حضور می‌یابد.
  • عناصر سرعت، داده، الگوریتم و عدم شفافیت (black-box) در آن بیشتر از فناوری‌های پیشین هستند.
    بنابراین، هراس از هوش مصنوعی با دو ویژگی جدید همراه است: سرعت بی‌سابقه و بازنمایی سوژگی ماشین‌محور.

۳.۳. بازخوانی داده‌ها: انسان خالق، ولی نه لزوماً کنترل‌کننده کامل

یک نکته مهم این است که انسان کماکان خالق هوش مصنوعی است و می‌تواند آن را اصلاح، کنترل یا بازطراحی کند. این یعنی فناوری AI به‌صورت ذاتی مستقل نیست؛ بلکه در چارچوب تاریخی، اقتصادی و فرهنگی انسان شکل می‌گیرد. بنابراین، اگرچه برخی هشدارها درباره «جهش هوشی» (AI takeoff) و «خروج از کنترل انسان» وجود دارد، اما این بدان معنا نیست که انسان فاقد امکان حکمرانی یا بازگردانی فناوری است. به تعبیر دیگر، ماشین خودبه‌خود ظهور نمی‌کند، بلکه توسط انسان ساخته می‌شود و می‌تواند توسط انسان نظارت شود یا قانون‌گذاری گردد.

۳.۴. ترکیب هراس از عقب‌ماندگی و تمرکز قدرت

دیده شده که در بسیاری از جوامع، هراس از هوش مصنوعی نه صرفاً ترس از خود فناوری، بلکه ترس از «جا ماندن از قطار فناوری» است. این هراس، ناشی از این دیدگاه است که فناوری یعنی قدرت، و عقب ماندن از فناوری یعنی فقدان سهم در قدرت اقتصادی، فرهنگی یا امنیتی. در نتیجه، شعار «هوش مصنوعی را فرا نگیریم، عقب می‌مانیم» به‌طور گسترده در تحلیل‌های ملی و منطقه‌ای بازتاب یافته است. اين روش را من هجوم براي به كارگيري كوركورانه فناوري مي نامم كه برخي كشورها فقط درصدد استفاده از مزاياي آن هستند بدون اينكه با فلسفه و كاركردهاي اين فناوري آشنا باشند و بدون اينكه زمينه ظهور خلاقيت، تربيت و جذب نيروي انساني خلاق را فراهم كرده باشند.

در مقابل، کشورهایی که در خط مقدم توسعه فناوری هستند، به‌جای هراس، غالباً به نوآوری، کنترل، بهره‌برداری استراتژیک می‌اندیشند. آنها نه فقط مصرف‌کننده فناوری‌اند، بلکه تولیدکننده، استانداردگذار و بازیگر قدرت در عرصه بین‌المللی هستند. این وضعیت نشان می‌دهد که حكمراني فناوری و توانمندی فناورانه، دو رکن اساسی در کاهش نگرانی‌های فناورانه هستند.

بخش پاياني: نتیجه‌گیری

ترس از هوش مصنوعی، اگرچه در ظاهر بازتاب یک سناریوی آخرالزمانی است، اما در واقع زائیده ترکیبی از واقعیت‌های فناورانه و اضطراب‌های انسانی است. فناوری هوش مصنوعی امروز با سرعتی می‌تازد که فراتر از ظرفیت سنتی کنترل بشر است؛ اما این به معنای پایان سلطه و اختیار انسان نیست، بلکه به معنای ورود به مرحله جدیدی از هم‌زیستی فناورانه انسانی است.

در این مسیر، سه نکته حیاتی‌اند: نخست، انسان کماکان سازنده فناوری است؛ دوم، فناوری بی‌طرف نیست بلکه میانجی قدرت، دانش و تصمیم است؛ و سوم، ترس از فناوری غالباً به‌ترس از عقب‌ماندگی تبدیل می‌شود، نه صرفاً ترس از ماشین. اگر سوژگی انسانی تقویت، سواد فناورانه گسترده شود، و حکمرانی فناوری واقعی شود، آن‌گاه هوش مصنوعی نه دشمن، بلکه متحد انسان خواهد بود يعني افزاینده توانایی‌ها، تسریع‌کننده دانش، و تسهیل‌کننده معنا. آینده بشر، نه در مبارزه با فناوري، و نه در هجوم براي به كارگيري صرف آن ترسيم نمي‌شود، بلکه در هم‌زیستی مسئولانه و خلاقانه با آن رقم خواهد خورد.

ارجاع به این تحلیل

ژئوپلیتیک ایران،انجمن (1404) هوش مصنوعی و هراس انسان مدرن: از تکنوفوبیا تا عقلانیت فناورانه، ژئوپلیتیک و دیپلماسی، انجمن ژئوپلیتیک ایران

درباره نویسنده

این مطلب را به اشتراک بگذارید

اسکرول به بالا