هوش مصنوعی همچون خدایی که به دست بشر آفریده شده تقدیس میشود. بشری که شاید با خود فکر میکند اگر خدایان پیشین نتوانستهاند گرهای از مشکلاتم باز کنند، چرا این یکی را امتحان نکنم. صداهایی ما را از عواقب و جباریت این خداگونهی جدید میترسانند. میترسانند که هوش مصنوعی بهزودی بر ما فائق خواهد شد. دقیقترکه میشویم، میبینیم بلندترینِ صداها، همانهایی هستند که بیشترین سود را میبرند. ایلان ماسک در حالی که برای توقف تحقیق در مورد هوش مصنوعی نامه مینویسد، روی پروژهی گروک کار میکند. اینجاست که باید شاخکهایمان تیزتر شود. باید به این بزرگنماییها شک کنیم. اما این به معنی بیاهمیت بودن و بیخطر بودنشان نیست. بیدرنگ شگفتزده میشویم وقتی میبینیم Chat GPT با چه هنری نحوهی پردازش داده و اطلاعات را توسط انسان یاد میگیرد و بهدقت تقلید میکند. میدانیم که حجم دادهای که در اختیار بشر است، قابلمقایسه با گذشته نیست. میدانیم گوگل سه دهه است که داده جمع کرده است. میدانیم از نظر سختافزاری پیشرفتهای چشمگیری داشتهایم و GPU و CPUهای جدید قابلیت پردازش این حجم از داده را دارند.
هوش مصنوعی بیشک خطرناک است، ولی نه از زاویهای که مبلغان و حامیان آن میگویند؛ آنهایی که با داستانهای علمی و تخیلی ما را میفریبند، که هوش این موجود بهزودی از ما جلو میزند و ما را به تسخیر خود میآورد. بهکفایت شک میکنیم که آیا این اوهام صرفاً تبلیغ برای محصولات هوش مصنوعی است؟ آیا ناشی از خصوصیت انسان است که عادت به بزرگنماییِ ناشناختهها دارد؟ و آیا میخواهند ما به ترس و سؤالات واقعی فکر نکنیم؟ این تبلیغات چه خواسته و چه ناخواسته ما را از فکر کردن به عواقب واقعی هوش مصنوعی منحرف میکنند. وظیفهی ماست که زنجیرههای نامریی و محدودیتهای واقعی را ببینیم و بدانیم که چرا نباید توسعهی آیندهی هوش مصنوعی را به دستان ایلان ماسکها و پیتر تیلها بسپاریم.
باور عمومی این است که ابزارها ارزشی جوهری و ذاتی ندارند. میگویند نحوهی استفادهی انسان، ارزش آنها را تعیین میکند. به عنوان مثال، این تفنگ نیست که شما را میکشد بلکه انسانِ تفنگ به دست، شما را میکشد. این نکته مغفول میماند که غالباً در دل ابزارها ارزشی نهفته است. چه ضمیر ناخودآگاه ما متوجه این نکته بشود و چه نه. گویی، پیش از آنکه نیازی واقعی وجود داشته باشد این ابزارها هستند که خالق نیاز ما هستند و ما را متقاعد میکنند که خواستهای در درون ما وجود داشته که از آن غافل بودهایم.
افزون بر آن، تکنولوژی چهارچوبی را به وجود میآورد که در چگونه دیدن و چگونه فکر کردن ما تأثیرگذار است .به عنوان مثال، طراحی شبکههای اجتماعی بیش از آنچه که ما تصور میکنیم در نحوهی رفتارمان و درجهی پرخاشگر و یا دوستانهبودنمان مؤثر است. مارتین هایدگر میگوید که ما تکنولوژی را تجربه نمیکنیم، بلکه جهان را از طریق تکنولوژی تجربه میکنیم. به نظر میآید که فکر ما بر روی عمل است و نه ابزار و تکنولوژی. بهعنوان مثال، هنگام استفاده از کیبورد، شما به عملی که در حال انجام است فکر میکنید، نه به خود کیبورد. کیبورد تنها وقتی مرئی میشود که یا خراب شود و یا وظیفهاش را بهنحوی انجام ندهد. حتی گاهی، ابزار به ادامهای از خود ما تبدیل میشود، مانند عینکی که به چشم میزنیم.
ما در خصوص اثرات مفید تکنولوژی، چه در حالت بالقوه و چه در حالت واقعی، بهکفایت آگاهی داریم. اما این نباید باعث شود که پرسش اصلی در سایه باقی بماند. سؤال اساسی این است که آیا این ابزارها ارادهای معطوف به حل مشکلات ما دارند؟ آیا اگر میخواستند تا به حال نمیتوانستند بخش زیادی از این مشکلات را حل کنند؟ آیا بیشتر مشکلات ما، جهان و زیستبومی که در آن زندگی میکنیم -که به صورت تصاعدی در حال نابودی است- بهخاطر نقض در تکنولوژی است یا مسئلهای اساساً اقتصادی و سیاسی است؟ پاسخ را میدانیم. حتی اگه سرمایهداری و بازوان اصلی آن یعنی پروپاگاندا موم در گوشمان بریزند.
از آسمان به زمین بیاییم و به جای صحبت از (Artificial General Intelligence) AGI ها از (Artificial Intelligence) AI صحبت کنیم . فکر کردن به اسکاینت Skynet فریب بزرگی است. باید این تصور رازآلود را کنار زد. وقتی صحبت از هوش مصنوعی میشود، باید به شرایط کاری و تغییرات آبوهوایی فکر کنیم. به این فکر کنیم که اقتصاد باید در خدمت بشر باشد و نه بشر در خدمت اقتصاد. به الگوریتمهایی که هر روز با آنها سروکار داریم. مثلاً مدلی که آمازون به کمک هوش مصنوعی ساخت تا رزومهها را بررسی و داوطلبان برتر را استخدام کند. مهندسان آمازون بعد از مدتی متوجه شدند، الگوریتمشان زنها را استخدام نمیکند. علت احتمالاً این بود که بر اساس دادههای موجود شرکت آمازون، به صورت سنتی مردها موفقتر عمل میکردند. در چنین مواردی، مالکان محصولات هوش مصنوعی و فعالان در مؤسسات تحقیقاتی، بیدرنگ راهحلی سرراست ارائه میدهند تا تنگنای اخلاقی را برطرف کنند. میگویند که برنامههای هوش مصنوعی از دو قسمت تشکیل شدهاند. اول پیشبینی میکنند و سپس توصیه. برای حل مشکل قسمت اول باید دادههای بیشتر و متنوعتری به سیستم داد و برای حل مشکل دوم میتوانیم به سیستم بگوییم که چه توصیهای بکند که عادلانه و اخلاقی باشد. متخصصان یا نمیدانند یا خودشان را به نادانی زدهاند که مشکل فراتر از این است. مشکل این است که معیارهای ثابتی برای عدل و اخلاق وجود ندارد. چه کسی تصمیم میگیرد که جواب هوش مصنوعی اخلاقی است یا نه؟ با معیار چه کسی؟ مضاف بر این، مشکل را باید از منظر سرمایهداری دید. سرمایهداری به دنبال دقتی است که منجر به سود میشود و نه اخلاق و عدالت. بهعنوان مثال ممکن است سیستم استخدامی آمازون فرضاً پیشبینی کند که رنگینپوستان کارایی کمتری دارند – ممکن است دلیل واقعی این باشد که به صورت سیستمی در آمازون رنگینپوستان مورد تبعیض و آزار قرار گرفتهاند و متعاقباً عملکرد پایینتری داشتهاند- برای رعایت اخلاق، ما هوش مصنوعیای میسازیم و از او میخواهیم درصد بیشتری از رنگینپوستان را استخدام کند. اما آیا مشکل حل شده است؟ تا چه حد «دقت» قربانی شده است؟ آیا دلیل اولیهای که اصلاً هوش مصنوعی برای استخدام استفاده شده زیر سؤال نمیرود؟ همواره این طور به نظر میرسد که باید بر سر «دقت» و جهان ایدهآلی که دوست داریم در آن زندگی کنیم سبکوسنگین کنیم. و مشکل از همینجا شروع میشود. ما در مورد این که چه جهانی ایدهآل است یکسان فکر نمیکنیم.
جهان هوش مصنوعی روزبهروز به جهان داستانهای کافکا بیشتر شبیه میشود. اگر جایی تقاضای شغل بدهیم و هوش مصنوعی رزومهی ما را رد کند دلیلش را نمیدانیم. نمیدانیم جهان ایدهآل هوش مصنوعی چه بوده است. اگر توضیحی هم داده شود بیشتر به بروشورهای تبلیغاتی میماند. در داستان «محاکمه» کافکا، جوزف کا دستگیر میشود، در طول جریان دادگاه و سیستم قضایی تلاش میکند که دلیل بازداشت را بفهمد و کسی دلیل دستگیری را به او نمیگوید تا اینکه در انتها اعدام میشود.
کارگران جنسی شاید اولین گروهی بودند که متوجه خطر شدند. هوش مصنوعی محتوای رایگان پورن روی اینترنت را به صورت تصاعدی زیاد کرد. گاهی این محتوا بدون بازیگر واقعی تولید میشود. کارگران جنسی برای بقا در بازار، راه خلاقانهای پیدا کردند و شروع کردند به دادن خدمات شخصیشده از طریق سایت Only Fans. آیا راهحل برای هنرمندان و دستاندرکاران فرهنگ هم به همین سادگی است؟ هدف از هنر و فرهنگ چیست؟ آیا جز این است که هنرمند قطعهای از روحش را برای ما میگذارد و با این کار نامیرا میشود؟ آیا جز این است که بعد از گذشت این همه قرن هنوز هم میشود میکل آنژ را در کلیسای سیستین دید؟ هوش مصنوعی محتوایی را که میوهی تلاش و خلاقیت هزاران هنرمند است غارت میکند و متنی بدون روح و بدون فرم تحویل ما میدهد. این محتوا قرار است چه احساساتی در ما ایجاد کند؟ نسلهای بعدی چه درکی از هنر و خلاقیت خواهند داشت و در فقدان گزینههای شغلی، برای هنرمندان چه انگیزهای برای تولید باقی میماند؟
نظام سرمایهداری مالکیت اطلاعات و حق تصمیمگیری را متعلق به نزدیکترینها به حلقهی مرکزی ثروت و قدرت میداند. بهزودی بیشترین مقدار داده در اختیار اقلیتی خواهد بود که مالکان چند ابرشرکت فناوری اطلاعات هستند. برای همین دغدغه برای دموکراتیک کردن هوش مصنوعی نه از سر شکمسیری بلکه از سر دغدغه برای شأن انسانی است تا از این بیشتر از اطلاعات و تصمیمگیری محروم نشود. آزادی و حق انتخاب داشته باشد و قدرت تفکرش سلب نشود. نکتهی مهم و خطرناک این است که قلمرو هوش مصنوعی قلمرو زبان است و زبان تولید میکند. ویتگنشتاین میگفت مرزهای زبان ما، مرزهای جهان ماست. زبان میتواند واقعیت را سانسور کند. جورج اورول در رمان «۱۹۸۴»گرفتن آزادی به وسیلهی زبان را «نیو اسپیک» نامگذاری کرد جایی که در سیستمی توتالیتر به صورت سیستماتیک زبان را دستکاری میکردند. هدف محدود کردن، کودن کردن و ادامهی سلطه بر افراد بود.
اما علاوه بر آزادی، نانمان هم در خطر است. رنجی فراتر از رنج بیشغلی برای فروشندگان نیروی کار نیست و هوش مصنوعی برای سود بیشتر، انسان را تواناتر از ماشین نمیخواهد تا بتواند انسان ضعیف را با ماشین جایگزین کند. انسان را به اندازهی ماشین ضعیف میخواهد تا قدرت چانهزنی فقط در انحصار کارفرما باقی بماند. شکی نیست، در آینده با رواج بیشتر هوش مصنوعی – اگر خوششانس باشیم و کارمان را از دست ندهیم- قدرت چانهزنیمان در مقابل کارفرما کمتر و کمتر خواهد شد.
در این جستار کوتاه سعی کردم بهاختصار خطرات واقعی هوش مصنوعی را یادآوری کنم. یادآوری کردم که اهمیت قدرت و حق تصمیم برابر در توسعهی هوش مصنوعی برای اخلاق، هنر و فرهنگ و محیط کار تا چه اندازه است. هوش مصنوعی البته میتواند به ما کمک کند و مشکلات واقعی «ما» را حل کند، اگر همه صدای برابر داشته باشیم و توسعهی هوش مصنوعی را در دستان خودمان بگیریم. چه ما دادهای بر روی اینترنت داشته باشیم، چه کارگر شرکتهای فناوری پیشرفته باشیم، چه کارگر معدن لیتیوم باشیم، وقتی در این هوا و زیستبومی – که در حال نابودی است و به نقطهی برگشتناپذیر رسیده است – تنفس کنیم، حق داریم که بخواهیم در مورد هوش مصنوعی و چگونگی توسعهی آن تصمیم بگیریم و سواری مجانی ندهیم. شایسته است که در جهانی دموکراتیکتر زندگی کنیم و بهروزی ما بر سود اقلیتی ارجح باشد.
دیدگاهتان را بنویسید