
در دهههای آغازین هزارهی سوم، جهان نهتنها با بحرانهای زیستمحیطی، سیاسی و اقتصادی و اجتماعی روبهروست، بلکه با نوعی دگرگونی بنیادین در شیوهی دانستن، اندیشیدن و حکمرانی مواجه است؛ دگرگونیای که در بستر فناوری اطلاعات و هوش مصنوعی شتاب گرفته است. هوش مصنوعی صرفاً ابزار نیست، بلکه خود بدل به بازیگری مفهومی و ساختاری در میدان قدرت، دانش و سیاست شده است. در چنین جهانی، رشد شناخت علمی – که روزگاری امیدبخش رهایی بشر از جهل و سلطه تلقی میشد – اکنون با نوعی ابهام اخلاقی و بحران سیاسی مواجه شده است.
پرسش اینجاست: آیا توسعهی هوش مصنوعی و فناوریهای دادهمحور، به بازتعریف مفاهیمی چون دموکراسی، حقوق بشر و مشارکت جمعی منجر میشود؟ یا بهعکس، این مفاهیم را در الگوریتمهای کنترل، پیشبینی و مهندسی اجتماعی مستحیل میکند؟ ذهن سیاست جهانی امروز، بیش از آنکه عرصهی گفتوگو، تفاوت و تصمیم انسانی باشد، به میدان محاسبه، تحلیل ریسک و فرمانروایی دیجیتال بدل شده است.
در این مقاله، تلاش میکنیم با رویکردی انتقادی و میانرشتهای، نسبت میان رشد شناخت علمی در پرتو هوش مصنوعی با دگردیسی ذهن سیاست جهانی را بررسی کنیم، و از این رهگذر، مفاهیم کلاسیک دموکراسی و حقوق بشر را مورد بازاندیشی قرار دهیم. شاید پرسش بنیادین ما این باشد: چگونه میتوان در عصری که الگوریتمها بهجای داوری انسانی نشستهاند، همچنان از انسان و آزادی و کرامت او دفاع کرد؟
۱. فناوری اطلاعات و رشد شناخت علمی
جهان امروز شاهد تحولی شتابناک در حوزهی دانش است؛ تحولی که بیش از هر چیز، وامدار پیشرفت در فناوری اطلاعات و قدرت محاسباتی ماشینهاست. هوش مصنوعی، بهویژه در قالب یادگیری ماشینی، تحلیل دادههای کلان، و پردازش زبان طبیعی، نهتنها سرعت تولید دانش را افزایش داده، بلکه شیوههای سنتیِ شناخت را دگرگون کرده است. اکنون علم دیگر حاصل تأمل فردی یا تجربهی آزمایشگاهی صرف نیست، بلکه محصول تعامل پیچیدهی میان انسان، ماشین، و انبوهی از دادههاست.
این رشد انفجاریِ شناخت، از یک سو امکانات بیسابقهای برای تحلیل پدیدههای اجتماعی، پیشبینی بحرانها، و کشف الگوهای نهفته فراهم کرده است؛ از مدلسازی رفتارهای اقتصادی گرفته تا شبیهسازی تعاملات زیستی و تحلیل احساسات در بسترهای دیجیتال. اما از سوی دیگر، این وضعیت پرسشهایی جدی در باب «ماهیت دانش»، «مرجعیت علمی»، و «خنثیبودن علم» پیش میکشد.
آیا دانشی که در ساختارهای محاسباتی و الگوریتمی تولید میشود، واقعاً خنثی و بیطرف است؟ یا همانگونه که میشل فوکو پیشتر هشدار داده بود، دانش همواره با قدرت گره خورده و صورتبندی آن بازتابی از ساختارهای سلطه است؟ در اینجا، پرسش از «چه کسی دانش را تولید میکند» و «برای چه هدفی» از اهمیت خاصی برخوردار میشود. هوش مصنوعی، برخلاف ظاهر بیطرف خود، در دل خود اولویتها، پیشفرضها و ایدئولوژیهایی نهفته دارد که گاه پنهان، اما مؤثر عمل میکنند.
بهعبارتی، رشد شناخت علمی در بستر فناوری اطلاعات، هرچند بهظاهر افقهای جدیدی از فهم را میگشاید، اما در غیاب نقد فلسفی و سیاسی، میتواند بدل به ابزاری برای تقویت ساختارهای قدرت و حذف صداهای بدیل شود. ازاینرو، پرسش از نسبت علم و سیاست، بیش از هر زمان دیگری ضروری است.
۲. هوش مصنوعی و ذهن سیاست جهانی
در دوران معاصر، سیاست جهانی بهتدریج از عرصهی تصمیمگیریهای انسانی و مباحثههای علنی، به قلمرو پیشبینی، مدیریت داده، و مهندسی اجتماعی الگوریتمی منتقل شده است. هوش مصنوعی، دیگر صرفاً ابزار سیاست نیست، بلکه بخشی از ذهنیت آن شده است – ذهنیتی که نه بر پایهی تخیل سیاسی و گفتوگو، بلکه بر مبنای محاسبه، تحلیل ریسک، و کنترل هوشمند شکل میگیرد. این همان چیزی است که میتوان آن را «ذهن محاسباتی سیاست جهانی» نامید.
در این منظومه، دولتها، سازمانهای بینالمللی، و بهویژه شرکتهای فناوری، از هوش مصنوعی برای جهتدهی افکار عمومی، ساختن روایتهای غالب، پیشبینی رفتارهای اجتماعی، و حتی انتخاب سیاستگذاران بهره میبرند. از الگوریتمهای تشخیص چهره در میدانهای امنیتی گرفته تا تحلیل احساسات در پلتفرمهای اجتماعی، مرز میان حاکمیت سیاسی و مهندسی فناوری بهشدت محو شده است.
ذهن سیاست جهانی، در این وضعیت، به جای اندیشیدن به تفاوت، شک، یا امکانهای متکثر، به سوی یکپارچهسازی، نرمالسازی، و حذف نامتعارفها متمایل میشود. سیاست، گفتوگوی جمعی میان انسانها نیست، بلکه کنترلی نرم، بیچهره، و فراگیر است – کنترلی که نام خود را امنیت، پیشرفت یا حتی دموکراسی میگذارد، اما در بنیاد خود از گفتوگوی واقعی تهی است.
در چنین بستری، پرسش از «چه کسی تصمیم میگیرد؟» با ابهام تازهای روبهروست: آیا تصمیمگیرنده، یک نهاد سیاسی است؟ یک هیئت متخصص؟ یا یک الگوریتم که از دل میلیاردها داده، الگویی «بهینه» را استخراج کرده است؟ این ابهام نهتنها سیاست را از مسئولیت تهی میکند، بلکه امکان مطالبهی عدالت و پاسخگویی را نیز تضعیف میسازد.
ذهن سیاست جهانی، چنانکه اکنون شکل گرفته، ذهنی است الگوریتمی، آیندهنگر اما فاقد عمق تاریخی؛ واکنشگرا اما بیپاسخ به رنج واقعی انسانها. شاید بزرگترین خطر این نباشد که هوش مصنوعی جای انسان را میگیرد، بلکه آن است که سیاست، جایگاه خود را بهمثابه میدان اندیشه و مسئولیت انسانی واگذار کند.
۳. دموکراسی و حقوق بشر در سایهی تکنولوژی
در قرن بیستم، مفاهیمی چون دموکراسی و حقوق بشر، حاملان امیدی برای جهانی عادلانهتر بودند؛ مفاهیمی که از دل تجربههای تاریخی جنگ، استبداد و تبعیض برآمدند، و تلاشی برای دفاع از شأن انسان در برابر قدرتهای خودسر بودند. اما در قرن بیستویکم، این مفاهیم در مواجهه با تکنولوژیهای نوین، بهویژه هوش مصنوعی و دادهکاوی، با چالشی دوگانه روبهرو شدهاند: از یکسو امکان گسترش عدالت و مشارکت را فراهم میکنند، و از سوی دیگر، خود بدل به ابزار نظارت، مهندسی اجتماعی، و کنترل جمعی شدهاند.
امروز، قدرتهای سیاسی و شرکتی، تحت نام دموکراسی، از دادههای کاربران برای شکلدادن به سلیقهها، نظرات و حتی رأیدادن استفاده میکنند. الگوریتمهایی که برای بهینهسازی تجربهی کاربری طراحی شدهاند، اکنون در حال سازماندهی افق ادراک ما از واقعیتاند. اگر دموکراسی متکی بر آزادی آگاهی و امکان انتخاب است، آیا در جهانی که آگاهی از طریق فیلترهای الگوریتمی مدیریت میشود، هنوز میتوان از آزادی واقعی سخن گفت؟
حقوق بشر نیز از این چرخش مستثنا نیست. ایدهی «حق بر حریم خصوصی»، «حق دانستن»، یا «حق اعتراض» در مواجهه با دولتهای دیجیتال و پلتفرمهای جهانی دچار استحاله شدهاند. نظارت انبوه، تحلیل رفتار، و طبقهبندی افراد بر اساس داده، اشکال نوینی از تبعیض و طرد را به وجود آورده است؛ تبعیضهایی که اغلب نه توسط قانونگذاران، بلکه توسط ماشینهایی اعمال میشوند که هیچکس دقیقاً نمیداند چگونه تصمیم میگیرند.
در این زمینه، خطر اصلی شاید نه در ذات تکنولوژی، بلکه در بیپاسخبودن آن باشد. الگوریتمها نه رأی میدهند، نه محاکمه میشوند، نه احساس پشیمانی یا همدلی دارند. وقتی تصمیماتی حیاتی دربارهی مهاجرت، اشتغال، یا امنیت به ماشینها واگذار میشود، مسئلهی مسئولیت اخلاقی به معضلی بیپاسخ بدل میگردد.
ازاینرو، دفاع از دموکراسی و حقوق بشر در عصر دیجیتال، به معنای صرفاً «استفادهی اخلاقی از فناوری» نیست؛ بلکه مستلزم بازاندیشی در خود مفاهیم، ساختارهای پاسخگویی، و بازتعریف رابطهی انسان و ماشین است. ما با نظمی روبهرو هستیم که در آن کنترل، به نام آزادی، و تبعیض، به نام بهینهسازی، توجیه میشود.
۴. مقاومت، بازفهمی، و امکانهای رهایی
در جهانی که سیاست به داده و دموکراسی به الگوریتم تبدیل شده، آیا هنوز میتوان از امکانهای رهایی، مقاومت، و بازیافت کرامت انسانی سخن گفت؟ پاسخ به این پرسش، نه در طرد کورکورانهی فناوری، بلکه در نقد ساختاری و خلاقانهی آن نهفته است. فناوری ذاتاً رهاییبخش یا سرکوبگر نیست؛ آنچه تعیینکننده است، نحوهی شکلگیری، استفاده، و جهتگیری اجتماعی و سیاسی آن است.
در دل همین نظام دیجیتال، شکافهایی وجود دارد؛ فضاهایی برای مقاومت، بازآفرینی و بازفهمی. کنشگران، فیلسوفان، و حتی برنامهنویسانی هستند که تلاش میکنند الگوریتمها را شفافتر، سیستمها را پاسخگوتر، و فناوری را به خدمت ارزشهای انسانی درآورند. جنبشهای «فناوری آزاد»، «حق بر داده»، و «عدالت الگوریتمی» نمونههایی از تلاش برای بازگرداندن مفهوم اخلاق و مسئولیت به دل فرآیندهای دیجیتالی هستند.
افزون بر آن، بازفهمی مفاهیمی چون «آزادی»، «حقیقت»، و «انسان» در پرتو وضعیت دیجیتال ضروری است. شاید دیگر نتوان از آزادی همچون امری کاملاً فردی سخن گفت، وقتی که ذهن ما زیر تأثیر ساختارهای محتوایی پلتفرمها شکل میگیرد. شاید مفهوم حقیقت نیازمند بازاندیشی است، وقتی که میلیونها «واقعیت الگوریتمی» هر لحظه تولید میشود. و شاید انسان، دیگر نه صرفاً سوژهی اندیشنده، بلکه کنشگری درگیر در شبکهای از ماشینها، اطلاعات، و انتخابهای ماشینی باشد.
مقاومت، در این چشمانداز، نه یک کنش حماسیِ سنتی، بلکه گاه یک ژست کوچک در برابر ماشین است: حذف یک اَپ، عدم مشارکت در نظارت، افشاگری دربارهی سازوکارهای پنهان، خلق نرمافزارهای آزاد، و یا حتی بازاندیشی انتقادی در باب آنچه بهظاهر طبیعی و بیخطر مینماید.
ازاینرو، پروژهی ما نه تنها نقد وضعیت موجود، بلکه گشودن افقهایی نو است – افقهایی که در آن علم، نه ابزار قدرت، بلکه عرصهی گفتوگوی اخلاقی؛ سیاست، نه میدان محاسبه، بلکه عرصهی تفاوت؛ و انسان، نه هدف نظارت، بلکه بازیگر آزادی و کرامت باشد.
۵. نتیجهگیری: بازاندیشی در مرز دانش، قدرت و رهایی
آنچه خواندیم، نه ستایش کور فناوری بود، نه هراس اخلاقی از هوش مصنوعی. این مقاله تلاشی بود برای اندیشیدن در نقطهی تلاقی سه ساحت: دانش، قدرت و رهایی – سهگانهای که همواره در تاریخ اندیشه، سیاست و تکنولوژی، صحنهی کشاکش و امکان بودهاند.
فناوری اطلاعات و هوش مصنوعی، بهمثابه امتداد عقل ابزاری مدرن، شناخت علمی را متحول کردهاند؛ اما این تحول در خلأ رخ نداده، بلکه در بستری قدرتمند، ایدئولوژیک، و گاه نابرابر صورت گرفته است. دانش فقط در خدمت کشف نیست، بلکه بیش از پیش ابزاری شده است برای کنترل، پیشبینی، و بهتبع آن، انقیاد.
ذهن سیاست جهانی نیز درگیر این چرخش است؛ از زبان قانون و حقوق به زبان الگوریتم و ریسک. اگر زمانی حاکمیت با چهرهای مشخص و مسئول سخن میگفت، امروز ماشینهای بدون چهرهاند که تصمیم میگیرند، و مسئولیت را در هالهای از «بهینهسازی» پنهان میسازند.
در چنین شرایطی، مفاهیمی چون دموکراسی و حقوق بشر باید از نو اندیشیده شوند – نه بهعنوان شعارهایی مصرفی یا ابزارهایی سیاسی، بلکه بهمثابه میدانهایی برای پیکار بر سر معنا، ابزار، و بازیابی کرامت انسانی.
باید بهجای یا در کنارِ نقد فناوری، به نقد سیاستِ فناوری، نقد اخلاقِ داده، و نقد زیستقدرت دیجیتال بپردازیم. در این نقد، نه بازگشت به گذشته ممکن است، نه انکار آینده. بلکه آنچه ضرورت دارد، ساختن امکانی تازه برای کنشگری، مقاومت و بازخوانی انسان در دل نظامی است که میخواهد خود را بدیلناپذیر نشان دهد.
انسان دیجیتال، اگر خودآگاه و منتقد باشد، میتواند سوژهی رهایی باشد – این نه با طرد فناوری، بلکه با فهم و بازآفرینی آن در جهت آزادی، بازشناسی تفاوتها، و کرامت حاصل خواهد شد.

شاعر و پژوهشگر
منابع نظری مقاله
میشل فوکو، دیرینهشناسی دانش
ژیل دلوز و فلیکس گاتاری، جوامع کنترلگر
شوشانا زوبوف، عصر سرمایهداری نظارتی (The Age of Surveillance Capitalism)
بنجامین براتون، پشته (The Stack)
جودیت باتلر، دربارهی سوژه، مسئولیت، و اخلاق در شرایط معاصر
نیلز گیلسن، قد اجتماعی هوش مصنوعی
زبیگنیو برژینسکی، پیشبینی دربارهی تکنولوکراسی و اطلاعات
یوال نوح حراری، در خصوص آیندهی دادهمحور سیاست
ویکیلیکس، اسنودن، و منابع مربوط به افشای دادهها
مقالات مرتبط در ژورنالهایی چون AI & Society، Big Data & Society و Philosophy & Te
Sven Ove Hansson, Ethics of Technology: A Geometric Analysis of Five Moral Principles
توضیح: تحلیل مفهومی و فلسفی دربارهی اصول اخلاقی که می بایست بر توسعه و استفاده از فناوریها حاکم باشد.
Cathy O’Neil, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy
(کتابی تأثیرگذار دربارهی بیعدالتی و تعصب الگوریتمی در سیستمهای کلانداده و تصمیمگیری.)
Shannon Vallor, Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting
(ارائهی چارچوب اخلاقی فضیلتمحور virtue ethics برای برخورد با فناوریهای نو، از جمله رباتیک، هوش مصنوعی و زیستفناوری.)
Michael J. Quinn, Ethics for the Information Age
(کتابی آموزشی و مقدماتی برای درک اخلاق فناوری اطلاعات، با تمرکز بر حریم خصوصی، مالکیت فکری، و دسترسی به فناوری.)
پاسخ دادن به Farid Shokrieh لغو پاسخ