فهرست موضوعی


هوش مصنوعی، قدرت و رهایی / علی آشوری

Thomas Gaulkin / Vectorstock

در دهه‌های آغازین هزاره‌ی سوم، جهان نه‌تنها با بحران‌های زیست‌محیطی، سیاسی و اقتصادی و اجتماعی روبه‌روست، بلکه با نوعی دگرگونی بنیادین در شیوه‌ی دانستن، اندیشیدن و حکمرانی مواجه است؛ دگرگونی‌ای که در بستر فناوری اطلاعات و هوش مصنوعی شتاب گرفته است. هوش مصنوعی صرفاً ابزار نیست، بلکه خود بدل به بازیگری مفهومی و ساختاری در میدان قدرت، دانش و سیاست شده است. در چنین جهانی، رشد شناخت علمی – که روزگاری امیدبخش رهایی بشر از جهل و سلطه تلقی می‌شد – اکنون با نوعی ابهام اخلاقی و بحران سیاسی مواجه شده است.

پرسش این‌جاست: آیا توسعه‌ی هوش مصنوعی و فناوری‌های داده‌محور، به بازتعریف مفاهیمی چون دموکراسی، حقوق بشر و مشارکت جمعی منجر می‌شود؟ یا به‌عکس، این مفاهیم را در الگوریتم‌های کنترل، پیش‌بینی و مهندسی اجتماعی مستحیل می‌کند؟ ذهن سیاست جهانی امروز، بیش از آنکه عرصه‌ی گفت‌وگو، تفاوت و تصمیم انسانی باشد، به میدان محاسبه، تحلیل ریسک و فرمانروایی دیجیتال بدل شده است.

در این مقاله، تلاش می‌کنیم با رویکردی انتقادی و میان‌رشته‌ای، نسبت میان رشد شناخت علمی در پرتو هوش مصنوعی با دگردیسی ذهن سیاست جهانی را بررسی کنیم، و از این رهگذر، مفاهیم کلاسیک دموکراسی و حقوق بشر را مورد بازاندیشی قرار دهیم. شاید پرسش بنیادین ما این باشد: چگونه می‌توان در عصری که الگوریتم‌ها به‌جای داوری انسانی نشسته‌اند، همچنان از انسان و آزادی و کرامت او دفاع کرد؟

۱. فناوری اطلاعات و رشد شناخت علمی

جهان امروز شاهد تحولی شتاب‌ناک در حوزه‌ی دانش است؛ تحولی که بیش از هر چیز، وام‌دار پیشرفت در فناوری اطلاعات و قدرت محاسباتی ماشین‌هاست. هوش مصنوعی، به‌ویژه در قالب یادگیری ماشینی، تحلیل داده‌های کلان، و پردازش زبان طبیعی، نه‌تنها سرعت تولید دانش را افزایش داده، بلکه شیوه‌های سنتیِ شناخت را دگرگون کرده است. اکنون علم دیگر حاصل تأمل فردی یا تجربه‌ی آزمایشگاهی صرف نیست، بلکه محصول تعامل پیچیده‌ی میان انسان، ماشین، و انبوهی از داده‌هاست.

این رشد انفجاریِ شناخت، از یک سو امکانات بی‌سابقه‌ای برای تحلیل پدیده‌های اجتماعی، پیش‌بینی بحران‌ها، و کشف الگوهای نهفته فراهم کرده است؛ از مدل‌سازی رفتارهای اقتصادی گرفته تا شبیه‌سازی تعاملات زیستی و تحلیل احساسات در بسترهای دیجیتال. اما از سوی دیگر، این وضعیت پرسش‌هایی جدی در باب «ماهیت دانش»، «مرجعیت علمی»، و «خنثی‌بودن علم» پیش می‌کشد.

آیا دانشی که در ساختارهای محاسباتی و الگوریتمی تولید می‌شود، واقعاً خنثی و بی‌طرف است؟ یا همان‌گونه که میشل فوکو پیش‌تر هشدار داده بود، دانش همواره با قدرت گره خورده و صورت‌بندی آن بازتابی از ساختارهای سلطه است؟ در این‌جا، پرسش از «چه کسی دانش را تولید می‌کند» و «برای چه هدفی» از اهمیت خاصی برخوردار می‌شود. هوش مصنوعی، برخلاف ظاهر بی‌طرف خود، در دل خود اولویت‌ها، پیش‌فرض‌ها و ایدئولوژی‌هایی نهفته دارد که گاه پنهان، اما مؤثر عمل می‌کنند.

به‌عبارتی، رشد شناخت علمی در بستر فناوری اطلاعات، هرچند به‌ظاهر افق‌های جدیدی از فهم را می‌گشاید، اما در غیاب نقد فلسفی و سیاسی، می‌تواند بدل به ابزاری برای تقویت ساختارهای قدرت و حذف صداهای بدیل شود. از‌این‌رو، پرسش از نسبت علم و سیاست، بیش از هر زمان دیگری ضروری است.

۲. هوش مصنوعی و ذهن سیاست جهانی

در دوران معاصر، سیاست جهانی به‌تدریج از عرصه‌ی تصمیم‌گیری‌های انسانی و مباحثه‌های علنی، به قلمرو پیش‌بینی، مدیریت داده، و مهندسی اجتماعی الگوریتمی منتقل شده است. هوش مصنوعی، دیگر صرفاً ابزار سیاست نیست، بلکه بخشی از ذهنیت آن شده است – ذهنیتی که نه بر پایه‌ی تخیل سیاسی و گفت‌وگو، بلکه بر مبنای محاسبه، تحلیل ریسک، و کنترل هوشمند شکل می‌گیرد. این همان چیزی است که می‌توان آن را «ذهن محاسباتی سیاست جهانی» نامید.

در این منظومه، دولت‌ها، سازمان‌های بین‌المللی، و به‌ویژه شرکت‌های فناوری، از هوش مصنوعی برای جهت‌دهی افکار عمومی، ساختن روایت‌های غالب، پیش‌بینی رفتارهای اجتماعی، و حتی انتخاب سیاست‌گذاران بهره می‌برند. از الگوریتم‌های تشخیص چهره در میدان‌های امنیتی گرفته تا تحلیل احساسات در پلت‌فرم‌های اجتماعی، مرز میان حاکمیت سیاسی و مهندسی فناوری به‌شدت محو شده است.

ذهن سیاست جهانی، در این وضعیت، به جای اندیشیدن به تفاوت، شک، یا امکان‌های متکثر، به سوی یکپارچه‌سازی، نرمال‌سازی، و حذف نامتعارف‌ها متمایل می‌شود. سیاست، گفت‌وگوی جمعی میان انسان‌ها نیست، بلکه کنترلی نرم، بی‌چهره، و فراگیر است – کنترلی که نام خود را امنیت، پیشرفت یا حتی دموکراسی می‌گذارد، اما در بنیاد خود از گفت‌وگوی واقعی تهی است.

در چنین بستری، پرسش از «چه کسی تصمیم می‌گیرد؟» با ابهام تازه‌ای روبه‌روست: آیا تصمیم‌گیرنده، یک نهاد سیاسی است؟ یک هیئت متخصص؟ یا یک الگوریتم که از دل میلیاردها داده، الگویی «بهینه» را استخراج کرده است؟ این ابهام نه‌تنها سیاست را از مسئولیت تهی می‌کند، بلکه امکان مطالبه‌ی عدالت و پاسخ‌گویی را نیز تضعیف می‌سازد.

ذهن سیاست جهانی، چنان‌که اکنون شکل گرفته، ذهنی است الگوریتمی، آینده‌نگر اما فاقد عمق تاریخی؛ واکنش‌گرا اما بی‌پاسخ به رنج واقعی انسان‌ها. شاید بزرگ‌ترین خطر این نباشد که هوش مصنوعی جای انسان را می‌گیرد، بلکه آن است که سیاست، جایگاه خود را به‌مثابه میدان اندیشه و مسئولیت انسانی واگذار کند.

۳. دموکراسی و حقوق بشر در سایه‌ی تکنولوژی

در قرن بیستم، مفاهیمی چون دموکراسی و حقوق بشر، حاملان امیدی برای جهانی عادلانه‌تر بودند؛ مفاهیمی که از دل تجربه‌های تاریخی جنگ، استبداد و تبعیض برآمدند، و تلاشی برای دفاع از شأن انسان در برابر قدرت‌های خودسر بودند. اما در قرن بیست‌ویکم، این مفاهیم در مواجهه با تکنولوژی‌های نوین، به‌ویژه هوش مصنوعی و داده‌کاوی، با چالشی دوگانه روبه‌رو شده‌اند: از یک‌سو امکان گسترش عدالت و مشارکت را فراهم می‌کنند، و از سوی دیگر، خود بدل به ابزار نظارت، مهندسی اجتماعی، و کنترل جمعی شده‌اند.

امروز، قدرت‌های سیاسی و شرکتی، تحت نام دموکراسی، از داده‌های کاربران برای شکل‌دادن به سلیقه‌ها، نظرات و حتی رأی‌دادن استفاده می‌کنند. الگوریتم‌هایی که برای بهینه‌سازی تجربه‌ی کاربری طراحی شده‌اند، اکنون در حال سازمان‌دهی افق ادراک ما از واقعیت‌اند. اگر دموکراسی متکی بر آزادی آگاهی و امکان انتخاب است، آیا در جهانی که آگاهی از طریق فیلترهای الگوریتمی مدیریت می‌شود، هنوز می‌توان از آزادی واقعی سخن گفت؟

حقوق بشر نیز از این چرخش مستثنا نیست. ایده‌ی «حق بر حریم خصوصی»، «حق دانستن»، یا «حق اعتراض» در مواجهه با دولت‌های دیجیتال و پلت‌فرم‌های جهانی دچار استحاله شده‌اند. نظارت انبوه، تحلیل رفتار، و طبقه‌بندی افراد بر اساس داده، اشکال نوینی از تبعیض و طرد را به وجود آورده است؛ تبعیض‌هایی که اغلب نه توسط قانون‌گذاران، بلکه توسط ماشین‌هایی اعمال می‌شوند که هیچ‌کس دقیقاً نمی‌داند چگونه تصمیم می‌گیرند.

در این زمینه، خطر اصلی شاید نه در ذات تکنولوژی، بلکه در بی‌پاسخ‌بودن آن باشد. الگوریتم‌ها نه رأی می‌دهند، نه محاکمه می‌شوند، نه احساس پشیمانی یا همدلی دارند. وقتی تصمیماتی حیاتی درباره‌ی مهاجرت، اشتغال، یا امنیت به ماشین‌ها واگذار می‌شود، مسئله‌ی مسئولیت اخلاقی به معضلی بی‌پاسخ بدل می‌گردد.

از‌این‌رو، دفاع از دموکراسی و حقوق بشر در عصر دیجیتال، به معنای صرفاً «استفاده‌ی اخلاقی از فناوری» نیست؛ بلکه مستلزم بازاندیشی در خود مفاهیم، ساختارهای پاسخ‌گویی، و بازتعریف رابطه‌ی انسان و ماشین است. ما با نظمی روبه‌رو هستیم که در آن کنترل، به نام آزادی، و تبعیض، به نام بهینه‌سازی، توجیه می‌شود.

۴. مقاومت، بازفهمی، و امکان‌های رهایی

در جهانی که سیاست به داده و دموکراسی به الگوریتم تبدیل شده، آیا هنوز می‌توان از امکان‌های رهایی، مقاومت، و بازیافت کرامت انسانی سخن گفت؟ پاسخ به این پرسش، نه در طرد کورکورانه‌ی فناوری، بلکه در نقد ساختاری و خلاقانه‌ی آن نهفته است. فناوری ذاتاً رهایی‌بخش یا سرکوب‌گر نیست؛ آنچه تعیین‌کننده است، نحوه‌ی شکل‌گیری، استفاده، و جهت‌گیری اجتماعی و سیاسی آن است.

در دل همین نظام دیجیتال، شکاف‌هایی وجود دارد؛ فضاهایی برای مقاومت، بازآفرینی و بازفهمی. کنش‌گران، فیلسوفان، و حتی برنامه‌نویسانی هستند که تلاش می‌کنند الگوریتم‌ها را شفاف‌تر، سیستم‌ها را پاسخ‌گوتر، و فناوری را به خدمت ارزش‌های انسانی درآورند. جنبش‌های «فناوری آزاد»، «حق بر داده»، و «عدالت الگوریتمی» نمونه‌هایی از تلاش برای بازگرداندن مفهوم اخلاق و مسئولیت به دل فرآیندهای دیجیتالی هستند.

افزون بر آن، بازفهمی مفاهیمی چون «آزادی»، «حقیقت»، و «انسان» در پرتو وضعیت دیجیتال ضروری است. شاید دیگر نتوان از آزادی همچون امری کاملاً فردی سخن گفت، وقتی که ذهن ما زیر تأثیر ساختارهای محتوایی پلت‌فرم‌ها شکل می‌گیرد. شاید مفهوم حقیقت نیازمند بازاندیشی است، وقتی که میلیون‌ها «واقعیت الگوریتمی» هر لحظه تولید می‌شود. و شاید انسان، دیگر نه صرفاً سوژه‌ی اندیشنده، بلکه کنشگری درگیر در شبکه‌ای از ماشین‌ها، اطلاعات، و انتخاب‌های ماشینی باشد.

مقاومت، در این چشم‌انداز، نه یک کنش حماسیِ سنتی، بلکه گاه یک ژست کوچک در برابر ماشین است: حذف یک اَپ، عدم مشارکت در نظارت، افشاگری درباره‌ی سازوکارهای پنهان، خلق نرم‌افزارهای آزاد، و یا حتی بازاندیشی انتقادی در باب آنچه به‌ظاهر طبیعی و بی‌خطر می‌نماید.

از‌این‌رو، پروژه‌ی ما نه تنها نقد وضعیت موجود، بلکه گشودن افق‌هایی نو است – افق‌هایی که در آن علم، نه ابزار قدرت، بلکه عرصه‌ی گفت‌وگوی اخلاقی؛ سیاست، نه میدان محاسبه، بلکه عرصه‌ی تفاوت؛ و انسان، نه هدف نظارت، بلکه بازیگر آزادی و کرامت باشد.

۵. نتیجه‌گیری: بازاندیشی در مرز دانش، قدرت و رهایی

آن‌چه خواندیم، نه ستایش کور فناوری بود، نه هراس اخلاقی از هوش مصنوعی. این مقاله تلاشی بود برای اندیشیدن در نقطه‌ی تلاقی سه ساحت: دانش، قدرت و رهایی – سه‌گانه‌ای که همواره در تاریخ اندیشه، سیاست و تکنولوژی، صحنه‌ی کشاکش و امکان بوده‌اند.

فناوری اطلاعات و هوش مصنوعی، به‌مثابه امتداد عقل ابزاری مدرن، شناخت علمی را متحول کرده‌اند؛ اما این تحول در خلأ رخ نداده، بلکه در بستری قدرت‌مند، ایدئولوژیک، و گاه نابرابر صورت گرفته است. دانش فقط در خدمت کشف نیست، بلکه بیش از پیش ابزاری شده است برای کنترل، پیش‌بینی، و به‌تبع آن، انقیاد.

ذهن سیاست جهانی نیز درگیر این چرخش است؛ از زبان قانون و حقوق به زبان الگوریتم و ریسک. اگر زمانی حاکمیت با چهره‌ای مشخص و مسئول سخن می‌گفت، امروز ماشین‌های بدون چهره‌اند که تصمیم‌ می‌گیرند، و مسئولیت را در هاله‌ای از «بهینه‌سازی» پنهان می‌سازند.

در چنین شرایطی، مفاهیمی چون دموکراسی و حقوق بشر باید از نو اندیشیده شوند – نه به‌عنوان شعارهایی مصرفی یا ابزارهایی سیاسی، بلکه به‌مثابه میدان‌هایی برای پیکار بر سر معنا، ابزار، و بازیابی کرامت انسانی.

باید به‌جای یا در کنارِ نقد فناوری، به نقد سیاستِ فناوری، نقد اخلاقِ داده، و نقد زیست‌قدرت دیجیتال بپردازیم. در این نقد، نه بازگشت به گذشته ممکن است، نه انکار آینده. بلکه آن‌چه ضرورت دارد، ساختن امکانی تازه برای کنشگری، مقاومت و بازخوانی انسان در دل نظامی است که می‌خواهد خود را بدیل‌ناپذیر نشان دهد.

انسان دیجیتال، اگر خودآگاه و منتقد باشد، می‌تواند سوژه‌ی رهایی باشد – این نه با طرد فناوری، بلکه با فهم و بازآفرینی آن در جهت آزادی، بازشناسی تفاوت‌ها، و کرامت حاصل خواهد شد.

علی آشوری
شاعر و پژوهشگر

منابع نظری مقاله

میشل فوکو، دیرینه‌شناسی دانش

ژیل دلوز و فلیکس گاتاری، جوامع کنترل‌گر

شوشانا زوبوف، عصر سرمایه‌داری نظارتی (The Age of Surveillance Capitalism)

بنجامین براتون، پشته (The Stack)

جودیت باتلر، درباره‌ی سوژه، مسئولیت، و اخلاق در شرایط معاصر

نیلز گیلسن، قد اجتماعی هوش مصنوعی

 زبیگنیو برژینسکی، پیش‌بینی درباره‌ی تکنولوکراسی و اطلاعات

یوال نوح حراری، در خصوص آینده‌ی داده‌محور سیاست

 ویکی‌لیکس، اسنودن، و منابع مربوط به افشای داده‌ها

 مقالات مرتبط در ژورنال‌هایی چون AI & Society، Big Data & Society و Philosophy & Te

Sven Ove Hansson, Ethics of Technology: A Geometric Analysis of Five Moral Principles

توضیح: تحلیل مفهومی و فلسفی درباره‌ی اصول اخلاقی که می بایست بر توسعه و استفاده از فناوری‌ها حاکم باشد.

Cathy O’Neil, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy

(کتابی تأثیرگذار درباره‌ی بی‌عدالتی و تعصب الگوریتمی در سیستم‌های کلان‌داده و تصمیم‌گیری.)

Shannon Vallor, Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting

(ارائه‌ی چارچوب اخلاقی فضیلت‌محور virtue ethics برای برخورد با فناوری‌های نو، از جمله رباتیک، هوش مصنوعی و زیست‌فناوری.)

Michael J. Quinn, Ethics for the Information Age

(کتابی آموزشی و مقدماتی برای درک اخلاق فناوری اطلاعات، با تمرکز بر حریم خصوصی، مالکیت فکری، و دسترسی به فناوری.)

به اشتراک بگذارید:

دیدگاه‌ها

یک پاسخ به “هوش مصنوعی، قدرت و رهایی / علی آشوری”

  1. Farid Shokrieh نیم‌رخ
    Farid Shokrieh

    این مقاله، تصویری روشنگرانه و انتقادی از هم‌آیندی هوش مصنوعی، قدرت، و مفاهیمی چون دموکراسی و کرامت انسانی ارائه می‌دهد—اما آن‌چه می‌توان به آن افزود، تحلیل روابط «ساختاری» میان نظام‌های دانایی و سازوکارهای اقتصادی-سیاسی‌ای‌ست که این نظام‌های دانایی را تولید، پشتیبانی و تثبیت می‌کنند. اگر ساختار تصمیم‌گیری سیاسی به یک شبکه محاسباتی مبتنی بر الگوریتم تبدیل شده، پرسش از رهایی دیگر صرفاً اخلاقی یا تکنولوژیک نیست، بلکه اقتصادی و نهادی نیز هست. در چنین فضایی، مسأله صرفاً مقاومت در برابر الگوریتم نیست، بلکه ایجاد مدل‌های بدیل از «هماهنگی جمعی» است که خارج از منطق بازار و نظارت قابل تحقق باشند.

    هوش مصنوعی، اگرچه می‌تواند ابزاری برای تحلیل داده‌ها، پیش‌بینی بحران‌ها، و حتی مشارکت‌سازی باشد، اما در غیاب یک بازتعریف بنیادی از مالکیت داده، کنترل زیرساخت‌های اطلاعاتی، و معناشناسی مشارکت، به بازوی نامرئی کنترل و مهندسی رضایت بدل می‌شود. بنابراین، آن‌چه این مقاله به درستی به چالش می‌کشد—یعنی خنثی‌پنداری دانش و الگوریتم—نیازمند گسترش به حوزه‌های سازوکارهای اقتصادی و نابرابری نهادی است: آیا می‌توان از آزادی سخن گفت، وقتی سازوکار تصمیم‌سازی از دسترس کنشگران اجتماعی خارج و در دست ساختارهای غیردموکراتیک قرار گرفته است؟ رهایی در این زمینه، نه در طرد فناوری، بلکه در بازیابی اراده‌ی جمعی در طراحی نهادها و روایت‌های دانایی ممکن است.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *