فهرست موضوعی


هوش مصنوعی و زنجیرهای نامرئی / مهدی فرهنگیان

نسخه‌ی پی‌دی‌اف

هوش مصنوعی همچون خدایی که به دست بشر آفریده شده تقدیس می‌شود. بشری که شاید با خود فکر می‌کند اگر خدایان پیشین نتوانسته‌اند گره‌ای از مشکلاتم باز کنند، چرا این یکی را امتحان نکنم. صداهایی ما را از عواقب و جباریت این خداگونه‌ی جدید می‌ترسانند. می‌ترسانند که هوش مصنوعی به‌زودی بر ما فائق خواهد شد. دقیق‌ترکه می‌شویم، می‌بینیم بلندترینِ صداها، همان‌هایی هستند که بیشترین سود را می‌برند. ایلان ماسک در حالی که برای توقف تحقیق در مورد هوش مصنوعی نامه می‌نویسد، روی پروژه‌ی گروک کار می‌کند. این‌جاست که باید شاخک‌هایمان تیزتر شود. باید به این بزرگ‌نمایی‌ها شک کنیم. اما این به معنی بی‌اهمیت بودن و بی‌خطر بودنشان نیست. بی‌درنگ شگفت‌زده می‌شویم وقتی می‌بینیم Chat GPT با چه هنری نحوه‌ی پردازش داده و اطلاعات را توسط انسان یاد می‌گیرد و به‌دقت تقلید می‌کند. می‌دانیم که حجم داده‌ای که در اختیار بشر است، قابل‌مقایسه با گذشته نیست. می‌دانیم گوگل سه دهه است که داده جمع کرده است. می‌دانیم از نظر سخت‌افزاری پیشرفت‌های چشمگیری داشته‌ایم و GPU و CPU‌های جدید قابلیت پردازش این حجم از داده را دارند.

هوش مصنوعی بی‌شک خطرناک است، ولی نه از زاویه‌ای که مبلغان و حامیان آن می‌گویند؛ آنهایی که با داستان‌های علمی و تخیلی ما را می‌فریبند، که هوش این موجود به‌زودی از ما جلو می‌زند و ما را به تسخیر خود می‌آورد. به‌کفایت شک می‌کنیم که آیا این اوهام صرفاً تبلیغ برای محصولات هوش مصنوعی است؟ آیا ناشی از خصوصیت انسان است که عادت به بزرگ‌نماییِ ناشناخته‌ها دارد؟ و آیا می‌خواهند ما به ترس و سؤالات واقعی فکر نکنیم؟ این تبلیغات چه خواسته و چه ناخواسته ما را از فکر کردن به عواقب واقعی هوش مصنوعی منحرف می‌کنند. وظیفه‌ی ماست که زنجیره‌های نامریی و محدودیت‌های واقعی را ببینیم و بدانیم که چرا نباید توسعه‌ی آینده‌ی هوش مصنوعی را به دستان ایلان ماسک‌ها و پیتر تیل‌ها بسپاریم.

باور عمومی این است که ابزارها ارزشی جوهری و ذاتی ندارند. می‌گویند نحوه‌ی استفاده‌ی انسان، ارزش آنها را تعیین می‌کند. به عنوان مثال، این تفنگ نیست که شما را می‌کشد بلکه انسانِ تفنگ به دست، شما را می‌کشد. این نکته مغفول می‌ماند که غالباً در دل ابزارها ارزشی نهفته است. چه ضمیر ناخودآگاه ما متوجه این نکته بشود و چه نه. گویی، پیش از آن‌که نیازی واقعی وجود داشته باشد این ابزارها هستند که خالق نیاز ما هستند و ما را متقاعد می‌کنند که خواسته‌ای در درون ما وجود داشته که از آن غافل بوده‌ایم.

افزون بر آن، تکنولوژی چهارچوبی را به وجود می‌آورد که در چگونه دیدن و چگونه فکر کردن ما تأثیرگذار است .به عنوان مثال، طراحی شبکه‌های اجتماعی بیش از آنچه که ما تصور می‌کنیم در نحوه‌ی رفتارمان و درجه‌ی پرخاشگر و یا دوستانه‌بودن‌مان مؤثر است. مارتین هایدگر می‌گوید که ما تکنولوژی را تجربه نمی‌کنیم، بلکه جهان را از طریق تکنولوژی تجربه می‌کنیم. به نظر می‌آید که فکر ما بر روی عمل است و نه ابزار و تکنولوژی. به‌عنوان مثال، هنگام استفاده از کی‌بورد، شما به عملی که در حال انجام است فکر می‌کنید، نه به خود کی‌بورد. کی‌بورد تنها وقتی مرئی می‌شود که یا خراب شود و یا وظیفه‌اش را به‌نحوی انجام ندهد. حتی گاهی، ابزار به ادامه‌ای از خود ما تبدیل می‌شود، مانند عینکی که به چشم می‌زنیم.

ما در خصوص اثرات مفید تکنولوژی، چه در حالت بالقوه و چه در حالت واقعی، به‌کفایت آگاهی داریم. اما این نباید باعث شود که پرسش اصلی در سایه باقی بماند. سؤال اساسی این است که آیا این ابزارها اراده‌ای معطوف به حل مشکلات ما دارند؟ آیا اگر می‌خواستند تا به حال نمی‌توانستند بخش‌ زیادی از این مشکلات را حل کنند؟ آیا بیشتر مشکلات ما، جهان و زیست‌بومی که در آن زندگی می‌کنیم -که به صورت تصاعدی در حال نابودی است- به‌خاطر نقض در تکنولوژی است یا مسئله‌ای اساساً اقتصادی و سیاسی است؟ پاسخ را می‌‌دانیم. حتی اگه سرمایه‌داری و بازوان اصلی آن یعنی پروپاگاندا موم در گوش‌مان بریزند.

از آسمان به زمین بیاییم و به جای صحبت از (Artificial General Intelligence) AGI ها از (Artificial Intelligence) AI صحبت کنیم . فکر کردن به اسکای‌نت Skynet فریب بزرگی است. باید این تصور رازآلود را کنار زد. وقتی صحبت از هوش مصنوعی می‌شود، باید به شرایط کاری و تغییرات آب‌و‌هوایی فکر کنیم. به این فکر کنیم که اقتصاد باید در خدمت بشر باشد و نه بشر در خدمت اقتصاد. به الگوریتم‌هایی که هر روز با آنها سروکار داریم. مثلاً مدلی که آمازون به کمک هوش مصنوعی ساخت تا رزومه‌ها را بررسی و داوطلبان برتر را استخدام کند. مهندسان آمازون بعد از مدتی متوجه شدند، الگوریتم‌شان زن‌ها را استخدام نمی‌کند. علت احتمالاً این بود که بر اساس داده‌های موجود شرکت آمازون، به صورت سنتی مردها موفق‌تر عمل می‌کردند. در چنین مواردی، مالکان محصولات هوش مصنوعی و فعالان در مؤسسات تحقیقاتی، بی‌درنگ راه‌حلی سرراست ارائه می‌دهند تا تنگنای اخلاقی را برطرف کنند. می‌گویند که برنامه‌های هوش مصنوعی از دو قسمت تشکیل شده‌اند. اول پیش‌بینی می‌کنند و سپس توصیه. برای حل مشکل قسمت اول باید داده‌های بیشتر و متنوع‌تری به سیستم داد و برای حل مشکل دوم می‌توانیم به سیستم بگوییم که چه توصیه‌ای بکند که عادلانه و اخلاقی باشد. متخصصان یا نمی‌دانند یا خودشان را به نادانی زده‌اند که مشکل فراتر از این است. مشکل این است که معیارهای ثابتی برای عدل و اخلاق وجود ندارد. چه کسی تصمیم می‌گیرد که جواب هوش مصنوعی اخلاقی است یا نه؟ با معیار چه کسی؟ مضاف بر این‌‌، مشکل را باید از منظر سرمایه‌داری دید. سرمایه‌داری به دنبال دقتی است که منجر به سود می‌شود و نه اخلاق و عدالت. به‌عنوان مثال ممکن است سیستم استخدامی آمازون فرضاً پیش‌بینی کند که رنگین‌پوستان کارایی کم‌تری دارند – ممکن است دلیل واقعی این باشد که به صورت سیستمی در آمازون رنگین‌پوستان مورد تبعیض و آزار قرار گرفته‌اند و متعاقباً عملکرد پایین‌تری داشته‌اند- برای رعایت اخلاق، ما هوش مصنوعی‌ای می‌سازیم و از او می‌خواهیم درصد بیشتری از رنگین‌پوستان را استخدام کند. اما آیا مشکل حل شده است؟ تا چه حد «دقت» قربانی شده است؟ آیا دلیل اولیه‌ای که اصلاً هوش مصنوعی برای استخدام استفاده شده زیر سؤال نمی‌رود؟ همواره این طور به نظر می‌رسد که باید بر سر «دقت» و جهان ایده‌آلی که دوست داریم در آن زندگی کنیم سبک‌و‌سنگین کنیم. و مشکل از همین‌جا شروع می‌شود. ما در مورد این که چه جهانی ایده‌آل است یکسان فکر نمی‌کنیم.

جهان هوش مصنوعی روز‌به‌روز به جهان داستان‌های کافکا بیشتر شبیه می‌شود. اگر جایی تقاضای شغل بدهیم و هوش مصنوعی رزومه‌ی ما را رد کند دلیلش را نمی‌دانیم. نمی‌دانیم جهان ایده‌آل هوش مصنوعی چه بوده است. اگر توضیحی هم داده شود بیشتر به بروشورهای تبلیغاتی می‌ماند. در داستان «محاکمه» کافکا، جوزف کا دستگیر می‌شود، در طول جریان دادگاه و سیستم قضایی تلاش می‌کند که دلیل بازداشت را بفهمد و کسی دلیل دستگیری را به او نمی‌گوید تا این‌که در انتها اعدام می‌شود.

کارگران جنسی شاید اولین گروهی بودند که متوجه خطر شدند. هوش مصنوعی محتوای رایگان پورن روی اینترنت را به صورت تصاعدی زیاد کرد. گاهی این محتوا بدون بازیگر واقعی تولید می‌شود. کارگران جنسی برای بقا در بازار، راه خلاقانه‌ای پیدا کردند و شروع کردند به دادن خدمات شخصی‌شده از طریق سایت Only Fans. آیا راه‌حل برای هنرمندان و دست‌اندرکاران فرهنگ هم به همین سادگی است؟ هدف از هنر و فرهنگ چیست؟ آیا جز این است که هنرمند قطعه‌ای از روحش را برای ما می‌گذارد و با این کار نامیرا می‌شود؟ آیا جز این است که بعد از گذشت این همه قرن هنوز هم می‌شود میکل آنژ را در کلیسای سیستین دید؟ هوش مصنوعی محتوایی را که میوه‌ی تلاش و خلاقیت هزاران هنرمند است غارت می‌کند و متنی بدون روح و بدون فرم تحویل ما می‌دهد. این محتوا قرار است چه احساساتی در ما ایجاد کند؟ نسل‌های بعدی چه درکی از هنر و خلاقیت خواهند داشت و در فقدان گزینه‌های شغلی، برای هنرمندان چه انگیزه‌ای برای تولید باقی می‌ماند؟

نظام سرمایه‌داری مالکیت اطلاعات و حق تصمیم‌گیری را متعلق به نزدیک‌ترین‌ها به حلقه‌ی مرکزی ثروت و قدرت می‌داند. به‌زودی بیشترین مقدار داده در اختیار اقلیتی خواهد بود که مالکان چند ابرشرکت فناوری اطلاعات هستند. برای همین دغدغه برای دموکراتیک کردن هوش مصنوعی نه از سر شکم‌سیری بلکه از سر دغدغه برای شأن انسانی است تا از این بیشتر از اطلاعات و تصمیم‌گیری محروم نشود. آزادی و حق انتخاب داشته باشد و قدرت تفکرش سلب نشود. نکته‌ی مهم و خطرناک این است که قلمرو هوش مصنوعی قلمرو زبان است و زبان تولید می‌کند. ویتگنشتاین می‌گفت مرزهای زبان ما، مرزهای جهان ماست. زبان می‌تواند واقعیت را سانسور کند. جورج اورول در رمان «۱۹۸۴»گرفتن آزادی به وسیله‌ی زبان را «نیو اسپیک» نام‌گذاری کرد جایی که در سیستمی توتالیتر به صورت سیستماتیک زبان را دست‌کاری می‌کردند. هدف محدود کردن، کودن کردن و ادامه‌ی سلطه بر افراد بود.

اما علاوه بر آزادی، نان‌مان هم در خطر است. رنجی فراتر از رنج بی‌شغلی برای فروشندگان نیروی کار نیست و هوش مصنوعی برای سود بیشتر، انسان را تواناتر از ماشین نمی‌خواهد تا بتواند انسان ضعیف را با ماشین جایگزین کند. انسان را به اندازه‌ی ماشین ضعیف می‌خواهد تا قدرت چانه‌زنی فقط در انحصار کارفرما باقی بماند. شکی نیست، در آینده با رواج بیشتر هوش مصنوعی – اگر خوش‌شانس باشیم و کارمان را از دست ندهیم- قدرت چانه‌زنی‌مان در مقابل کارفرما کم‌تر و کم‌تر خواهد شد.

در این جستار کوتاه سعی کردم به‌اختصار خطرات واقعی هوش مصنوعی را یادآوری کنم. یادآوری کردم که اهمیت قدرت و حق تصمیم برابر در توسعه‌ی هوش مصنوعی برای اخلاق، هنر و فرهنگ و محیط کار تا چه اندازه است. هوش مصنوعی البته می‌تواند به ما کمک کند و مشکلات واقعی «ما» را حل کند، اگر همه صدای برابر داشته باشیم و توسعه‌ی هوش مصنوعی را در دستان خودمان بگیریم. چه ما داده‌ای بر روی اینترنت داشته باشیم، چه کارگر شرکت‌های فناوری پیشرفته باشیم، چه کارگر معدن لیتیوم باشیم، وقتی در این هوا و زیست‌بومی – که در حال نابودی است و به نقطه‌ی برگشت‌ناپذیر رسیده است – تنفس ‌کنیم، حق داریم که بخواهیم در مورد هوش مصنوعی و چگونگی توسعه‌ی آن تصمیم بگیریم و سواری مجانی ندهیم. شایسته است که در جهانی دموکراتیک‌تر زندگی کنیم و بهروزی ما بر سود اقلیتی ارجح باشد.


هوش مصنوعی؛ سود در مقابل آزادی / ریچارد ولف / ترجمه‌ی خسرو صادقی بروجنی

دستورکار سیاسی هوش مصنوعی / سانتیاگو زابالا و کلودیو گالو / ترجمه‌ی خسرو صادقی بروجنی

دیدگاه‌ها

یک پاسخ به “هوش مصنوعی و زنجیرهای نامرئی / مهدی فرهنگیان”

  1. parvaz2007 farhadi نیم‌رخ
    parvaz2007 farhadi

     از آن  ریش سفیدان نخستین که تجربیات نسلی را انتقال می دادند تا نقاشی های روی دیوارهای سنگی و غارها تا سنگ نبشته ها و نگارگری ها تا صنعت چاپ و روزنامه و مجله ها همگی به سبب انتقال تجربیات و دانش بشریست هوش مصنوعی نیز در واقع بایگانی تمام اطلاعات علمی و غیرعلمی تا امروز است که هنوز توانائی آفرینش مانند انسان ندارد لا اگر خطری وجود دارد باید در خود انسان جستجو کرد چون هوش مصنوعی چیز بیشتری از اطلاعات تا کنونی نیست . هوش مصنوعی که بر مبنای بیت و کد گذاری صفر و یک است هنوز قادر به فکر کردن نیست و بزرگترین عددهایش گیگا است هنوز چیزی نیست . هوش مصنوعی هنوز یک ابزار است مانند یک سنسور یا در سطحی بزرگتر و مجموع شده مثل جی پی تی . ابزار هم خاصیتش اینست که در پروسه ی تولید جانشین نیروی کار انسانی می شود تا بشر به خویشتن طبیعی اش باز گردد و از خودبیگانیگی منقطع شود تا ده سال آینده در اروپا امریکا و دنیای سرمایه مجدد این هوش مصنوعی سبب بیکار شدن ( یعنی جایگزین شدن ) با ۳۰۰ میلیون نفر دیگر می شود یعنی ۳۰۰ میلیون نفر بیکار می شوند اگر این جایگزینی نبود انسان در غارها زندگی می کرد و یا مانند ۲۵۰ سال پیش روزی ۱۸ ساعت باید کار می کرد حذف ۳۰۰ میلیون نیروی کار زنده می تواند حداقل سه ساعت فراغت بیشتر برای نیروی کار دنیا ایجاد کند اگر حرض و آز سرمایه دارها اجازه دهد چون تاثیری در تولید ثروت اجتماعی نه تنها نخواهد داشت که مقدار بیشتری هم تولید می شود پس هوش مصنوعی مشکلی نه تنها برای انسان ندارد که بسیار مفید هم هست . اما چیزی که ما باید بیشتر متوجه ی ان باشیم که از ما مخفی مانده است تکامل کد گذاری صفر و یک به کد گذاری کوانتومی ست که هم اکنون بین سه شرکت بزرگ امریکائی در جریان است و اتفاقا به همین دلیل شرکت چینی را از بازارهای اروپائی و امریکائی دور کرده اند در کد گذاریهای دیجیتالی کدها یا صفر هستند یا یک ولی در کوانتوم صفر در همان زمان یک است و یک همزمان صفر است یعنی دیگر باید بجای بیت و گیگ ظرف دیگری بسیار بزرگتر و میلیونها برابر سرعت بیشتر در نظر گرفت هم اکنون این تکنولوژی در حال تکامل است و این نوع کامپیوتر ها فقط داده ها را منظم و مرتب ارائه نمی دهند بلکه بجای انسان می توانند فکر کنند اگر فقط ه ۴ جهت خلاصه شوند اینهمه قدرت خواهند یافت وای که شش ضلعی یا ۸ ضلعی یا بیشتر شوند تکامل انسان بی انتهاست پس نگاه ما نباید به هوش مصنوعی مانند خزینه ی حمامهای قدیم با دوش ها باشد یا ترجیح الاغ سواری به بنزسواری باشد وسعت دیدمان را و افقهای علمی خودمان را باید هر چه بیشتر وسعت دهیم به گذشته بازنگردیم و از آینده استقبال کنیم . 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *