فهرست موضوعی


جهان ـ مرگِ الگوریتمی: هوش مصنوعی و مسئله‌ی فلسطین / سارا فتح‌الله / ترجمه‌ی شکیبا رحمانی

Photograph by Mahmoud Issa / Reuters / Redux

چکیده

از اکتبر ۲۰۲۳، ساکنان نوار غزه در معرض سامانه‌های تولید هدف مبتنی بر هوش مصنوعی از سوی اسرائیل قرار گرفته‌اند. این مقاله با اتکا به درکی از پروژه‌ی استعمارِ مهاجر‌نشینانه‌ی اسرائیل، اقتصاد سرمایه‌داری نژادی آن، و صورت‌بندی سرزمین‌های اشغالی فلسطین به‌مثابه جغرافیاهای زندان‌وار، به بررسی استقرار این فناوری‌ها می‌پردازد. مقاله با استناد به کار اندی کلارنو، که نشان می‌دهد کاهش وابستگی اسرائیل به نیروی کار فلسطینی آن‌ها را از چرخه‌ی بهره‌کشی اقتصادی خارج کرده است، استدلال می‌کند که فلسطینیان برای هدفی دیگر ارزشمندند: به‌مثابه میدان آزمایش. در بیش از پنجاه سال گذشته، فلسطینیان به آزمودنی‌هایی برای توسعه‌ی فناوری‌های نظارتی و جنگی بدل شده‌اند؛ همان چیزی که آنتونی لوونشتاین «آزمایشگاه فلسطین» می‌نامد. هوش مصنوعی پارادایمی دوگانه ایجاد می‌کند که در آن، هم زندگی و هم مرگ فلسطینیان به عرصه‌هایی برای سلب مالکیت داده‌ای تبدیل می‌شود. این دوگانگی ایجاب می‌کند که آن‌ها زنده نگه داشته شوند تا داده‌های دائماً به‌روز برای سامانه‌های مرگبار الگوریتمی تولید کنند، در حالی که مرگ‌شان نیز داده‌هایی برای بهبود و بازاریابی این سامانه‌ها به‌عنوان «میدان‌آزموده» فراهم می‌کند. مقاله این وضعیت را «جهان ـ مرگ الگوریتمی» می‌نامد، مفهومی برگرفته از «نکروپولیتیک» [مرگ‌سیاست] اشیل امبمبه. در نهایت، استدلال می‌شود که اسرائیل با صدور جهانی فناوری‌های مرگبار هوش مصنوعی، الگویی از دورریختگیِ مردم تحت تبعیض نژادی را نیز صادر می‌کند.


«رویه‌هایی که بر پیکرِ در اسارت اعمال می‌شوند، ابژه‌سازیِ تام را حدگذاری می‌کنند، چرا که کلِ جامعه‌ی در اسارت به آزمایشگاهی زنده بدل می‌شود.»

هورتنس جی. اسپیلرز،[۱] «بچه‌ی مامان، شاید بابا: کتاب دستور زبان آمریکایی»[۲]

«کارخانه‌ای برای کشتار جمعی»[۳] عنوان تحقیقی بود که این موضوع را به عرصه‌ی عمومی کشاند: استفاده‌ی اسرائیل از سامانه‌ی تولید هدف مبتنی بر هوش مصنوعی برای شناسایی شمار بی‌سابقه‌ای از اهداف جهت بمباران در غزه (Abraham 2023). اگرچه این سامانه اکنون توجه تازه‌ای برانگیخته است، اما باید آن را در امتداد تاریخی چنددهه‌ای از کشتار فلسطینیان به دست نیروهای اشغالگر و مهاجر‌نشینان اسرائیلی فهمید؛ از‌جمله کشتارهایی که به‌میانجی فناوری‌های جنگیِ نوین انجام  شده‌اند.

پژوهشگران مطالعات استعمار مهاجر‌نشینی انه[۴] میان استعمار مهاجر‌نشینانه و استعمار امتیازطلبانه[۵] تمایز قائل می‌شوند، که بخشی از آن به نوع نسبت میان استعمارگران و استعمارشدگان بازمی‌گردد. در استعمار امتیازطلبانه، سوژه‌ی استعماری، برخلاف استعمار مهاجر‌نشینانه، برای تأمین نیروی کار کارکرد دارد. پروژه‌های حذف‌گرای رژیم‌های استعمار مهاجر‌نشینانه – که هدف‌شان ریشه‌کن‌کردن یا اخراج جمعیت‌های بومی است، نه به‌کارگیری آن‌ها به‌عنوان نیروی کار – کشاکشی میان منطق حذف و منطق بهره‌کشی در درون سرمایه‌داری نژادی ایجاد می‌کنند.

اندی کلارنو[۶]، در کتاب آپارتاید نولیبرال[۷]، این تنش را در مقایسه‌ی تاریخ معاصر سرمایه‌داری نژادی در رژیم‌های آپارتاید آفریقای جنوبی و اسرائیل/فلسطین صورت‌بندی می‌کند. در آفریقای جنوبی پیش از ۱۹۹۴، استعمار اروپایی مستلزم جابه‌جایی خشونت‌آمیز و طرد جمعیت سیاه‌پوست بود. این دینامیک زمانی تغییر کرد که محیط‌های کار متعلق به سفیدپوستان به نیروی کار کم‌دستمزد کارگران سیاه‌پوست وابسته شدند و بدین‌ترتیب از حذف کامل آن‌ها جلوگیری شد. در حالی‌که حذف در آفریقای جنوبی دوران آپارتاید، زمینه‌ساز بهره‌کشی شد، دهه‌ها برنامه‌ریزی اقتصادی متمرکز به این معنا بود که بهره‌کشی از فلسطینیان کارکردی مرکزی در سرمایه‌داری نژادی اسرائیل نداشت. بازسازی نولیبرالی اقتصاد اسرائیل از اواخر دهه‌ی ۱۹۸۰ در پی کاهش وابستگی آن به نیروی کار فلسطینی بود؛ امری که فلسطینیان را در برابر شیوه‌های حذف‌گرای رژیم اسرائیل آسیب‌پذیرتر ساخت (Clarno 2017).

با این حال، منطق حذف در استعمار مهاجر‌نشینانه به‌تنهایی نیروهای محرک فرودست‌سازی فلسطینیان توسط رژیم اسرائیل را به‌طور کامل تبیین نمی‌کند. مقاله‌ی حاضر استدلال می‌کند که اقتصاد سرمایه‌داری نژادی اسرائیل از طریق منطقی دیگر عمل می‌کند: منطق آزمایش‌گری، که ذاتاً به جغرافیاهای زندان‌وارِ نژادی‌شده و تاریخچه‌های آزمودن فناوری‌های نوین بر روی جمعیت‌های انسانیِ در اسارت گره خورده است. همان‌گونه که آنتونی لوونشتاین[۸] در کتاب آزمایشگاه فلسطین[۹] نشان داده است، اسارت فلسطینیان در قالب ابژه‌سازی آن‌ها برای آزمایش‌گری تحقق می‌یابد. این وضعیت به نوبه‌ی خود شکل تازه‌ای از کالایی‌سازی را برای سوداگران جنگی اسرائیل فراهم می‌آورد؛ سوداگرانی که با بسته‌بندی سامانه‌های مبتنی بر هوش مصنوعی به‌عنوان «میدان‌آزموده» (Loewenstein 2023) در پی کسب مزیت در بازار هستند. به این ترتیب، ابژه‌سازی فلسطینیان به ابزاری برای افزایش ارزش کالاها بدل می‌شود.

با توجه به نیاز هوش مصنوعی به داده، این منطق آزمایش‌گری مستلزم چرخه‌های مداوم و تکرارشونده‌ی سلب مالکیت داده‌ای است که در دو جبهه رخ می‌دهد. از یک سو، داده‌های زیست‌سنجشی، شخصی و سایر داده‌های فلسطینیانِ زنده، در شرایطی همراه با اجبار یا پنهان‌کاری، هنگام عبور از ایست‌های بازرسی نظامی در کرانه‌ی باختری یا فرار از راهروهای تخلیه در غزه، به‌طور مداوم گردآوری می‌شوند. از سوی دیگر، همان‌گونه که داده‌های آنان برای آموزش و تغذیه‌ی همان فناوری‌هایی به کار می‌رود که بر آن‌ها نظارت، هدف‌گیری و کشتار می‌کنند، واقعیت‌ها و شرایط هدف‌گیری و مرگ‌شان نیز به محلی برای تولید داده بدل می‌شود. این داده سپس برای افزایش مرگباری سامانه‌های هوش مصنوعی به کار می‌رود؛ سامانه‌هایی که دیگران را هدف‌گذاری و کشتار می‌کنند.

کاربرد اخیر سامانه‌های تولید هدف الگوریتمی در غزه نشان می‌دهد که نیازهای داده‌ای سامانه‌های مرگبار هوش مصنوعی چگونه مستلزم آن است که فلسطینیان هم زنده باشند و هم بمیرند. این خصلت دوگانه، فلسطینیان را در وضعیت نوعی «جهان ـ مرگِ الگوریتمی» قرار می‌دهد – اصطلاحی برگرفته از اشیل امبمبه[۱۰] برای توصیف جغرافیاهایی که در آن‌ها جمعیت‌هایی که در معرض شرایط مرگ‌سیاستِ خشونت افراطی قرار دارند، عملاً به مردگانی زنده بدل می‌شوند (Mbembe 2003, 40). در این جهان ـ مرگِ الگوریتمی، فلسطینیان در وضعیت زیستنِ محکوم نگه داشته می‌شوند؛ همواره در معرض تهدید هدف‌گیری، و هم‌زمان دستخوش سلب مالکیت داده‌ای که برای افزایش مرگباری ابزارهایی ضروری است که در نهایت مرگ‌شان را رقم می‌زنند. این ابزارها سپس توسط شرکت‌های اسرائیلی بهبود یافته و به مشتریانی در سراسر جهان فروخته می‌شوند. اما اسرائیل فراتر از صرفِ فروش محصولات، خودِ ایده‌ی دورریختگی را به‌مثابه شیوه‌ای برای مدیریت جمعیت‌های ناخواسته و به‌عنوان فرصتی بازارمند برای سوداگری جنگی صادر می‌کند.

این مقاله به شرح زیر سازمان‌دهی شده است. بخش اول به بررسی رابطه‌ی استعمار مهاجر‌نشینانه با نیروی کار می‌پردازد تا تفاوت میان منطق حذف و منطق بهره‌کشی را روشن کند و نحوه‌ی اعمال سلطه‌ی اسرائیل بر فلسطینیان را توضیح دهد. بخش دوم استدلال می‌کند که منطق آزمایش‌گری محرک اقتصاد سرمایه‌داری نژادی اسرائیل است. بخش سوم نشان می‌دهد که این منطق آزمایش‌گری، هنگامی‌که در خدمت سامانه‌های الگوریتمی به کار گرفته می‌شود، مستلزم سلب مالکیت داده‌ای در دو جبهه است: هم در زندگی و هم در مرگ، بدن‌های فلسطینیان به‌عنوان منابع داده برای فناوری‌های مرگبار هوش مصنوعی برساخته می‌شوند. بخش چهارم توضیح می‌دهد که چگونه این نیاز دوگانه به داده، فلسطینیان را به‌طور جمعی در وضعیت نوعی «جهان ـ مرگِ الگوریتمی» قرار می‌دهد و دورریختگیِ مرگ‌سیاست آن‌ها را تشدید می‌کند. این مقاله در پایان، به بررسی الگویی که جهان‌های مرگِ الگوریتمی تثبیت می‌کنند و امکان بازتولید آن‌ها در زمینه‌های دیگر می‌پردازد.

۱. حذف در برابر بهره‌کشی در استعمار مهاجر‌نشین

سرمایه‌داری نژادی طیف گسترده‌ای از شیوه‌های تولید و انباشت سرمایه را در بر می‌گیرد که بر سلب مالکیت از جمعیت‌های تحت تبعیض نژادی متکی هستند، از برده‌داری و کار قراردادی اجباری گرفته تا استعمار. دستین جنکینز[۱۱] و جاستین لیروی[۱۲] در مقدمه‌ی کتاب تاریخ‌های سرمایه‌داری نژادی[۱۳] به نمونه‌هایی از سراسر جهان – از جمله در هند، فیلیپین و هاوایی – اشاره می‌کنند که در آن‌ها ساختارهای نظامی و اداری استعماری برای انباشت سرمایه‌ی نژادی حیاتی بودند (Jenkins and Leroy 2021,16–۱۷). رژیم‌های استعماری، افزون بر استخراج منابع، جمعیت‌های مستعمره‌شده را برای نیروی کارشان جذب و کنترل می‌کردند.

با این حال، ممکن است چنین به نظر برسد که رژیم‌های استعمار مهاجر‌نشینانه با نظام‌های سرمایه‌داری نژادی و الزامات آن‌ها برای بهره‌کشی از نیروی کار ناسازگار باشند. پژوهشگران مطالعات استعمار مهاجر‌نشینانه میان استعمار مهاجر‌نشینانه و استعمار امتیازطلبانه تمایز می‌گذارند، تمایزی که بخشی از آن بر رابطه‌ی هر یک با نیروی کار استوار است (Wolfe 2001, 868). تفاوت میان استعمار امتیازطلبانه و استعمار مهاجر‌نشینانه، تفاوت میان «تقاضا برای نیروی کار» و «تقاضا برای ترک‌کردن» است (Veracini 2011,4). در حالی که «ترک‌کردن» می‌توانست از طریق راه‌های گوناگونی از جمله اخراج، کشتار جمعی یا همسان‌سازی اجباری جمعیت‌های بومی تحقق یابد، وجه مشترک استعمار مهاجر‌نشینانه این است که مستلزم پاک‌سازی نظام‌مند مردمان بومی از زمین است تا مهاجر‌نشینان جایگزین آن‌ها شوند. در مقاله‌ای بنیادین در مطالعات استعمار مهاجر‌نشینانه، پاتریک وولف[۱۴] این را «منطق حذف»[۱۵] می‌نامد و «حذف بومی»[۱۶] را به‌عنوان ویژگی مرکزی در فرایند ایجاد جامعه‌ای مهاجر‌نشین بر زمین‌های مصادره‌شده صورت‌بندی می‌کند (Wolfe 2006, 387). در مقابل، استعمار امتیازطلبانه با «عزمی برای بهره‌کشی» از مردمان بومی به‌منظور نیروی کارشان استمرار می‌یابد (Veracini 2011,2).

در حالی که به نظر می‌رسد دوگانه‌ی ظاهری میان بهره‌کشی و حذف در ادبیات مطالعات استعمار مهاجر‌نشینانه تثبیت شده باشد، این دوگانه هنگام بررسی مورد آفریقای جنوبیِ آپارتاید مسئله‌دار می‌شود. اندی کلارنو در کتاب آپارتاید نولیبرال[۱۷] مطالعه‌ای تطبیقی از سرمایه‌داری نژادی در آفریقای جنوبیِ آپارتاید و فلسطین/اسرائیل ارائه می‌دهد که بر پایه‌ی یک دهه پژوهش در هر دو زمینه استوار است. از سال ۱۶۵۲ به بعد، اسکان اروپایی در آفریقای جنوبی بر شیوه‌های حذفی تکیه داشت که آفریقایی‌ها را به‌گونه‌ای خشونت‌آمیز جابه‌جا می‌کرد تا زمین‌هایشان تصرف شود (Clarno 2017,25–۲۶). اما با فرارسیدن اواخر دهه‌ی ۱۸۰۰، اروپاییان در آفریقای جنوبی «در پی بهره‌کشی از جمعیت آفریقایی بودند، نه صرفاً اخراج آن‌ها» (Clarno 2017,6). این دینامیک پس از تشکیل اتحادیه‌ی آفریقای جنوبی در سال ۱۹۱۰ تشدید شد و زمینه‌ساز دوره‌ای از صنعتی‌سازی شد که معادن، کارخانه‌ها و مزارع متعلق به سفیدپوستان را به بهره‌کشی از کارگران سیاه‌پوست وابسته ساخت. این بدان معنا نیست که جمعیت سیاه‌پوست آفریقای جنوبی دیگر طرد یا «بی‌زمینیِ پایدار» را تجربه نمی‌کرد (Clarno 2017, 35). با این حال، کلارنو استدلال می‌کند که در قیاس با قدرت حذفی اسرائیل که به سوی نابودی فلسطینیان جهت‌گیری شده است، «تقاضا برای نیروی کار سیاهِ کم‌دستمزد از حذف کامل جمعیت سیاه‌پوست جلوگیری کرد» (Clarno 2017, 197, 198).

کلارنو به‌جای آن‌که حذف و بهره‌کشی را به‌مثابه منطق‌هایی متقابل و متضاد در نظر گیرد، بر ضرورت چارچوب تاریخی دقیق‌تر و ظریف‌تری تأکید می‌ورزد که تحول در «اشکال متغیر» استعمار مهاجر‌نشینانه و سرمایه‌داری نژادی نولیبرال را توضیح دهد (Clarno 2017, 25). در مورد آفریقای جنوبیِ دوران آپارتاید، آنچه او نشان می‌دهد این است که فرایندی که در مقطعی در پی حذف جمعیت سیاه‌پوست بود، به فرایندی بدل شد که عمدتاً حول محور بهره‌کشی از نیروی کار آن‌ها سازمان می‌یافت.

اما در مورد فلسطین، برعکس، منطق بهره‌کشی – که به‌مثابه استخراج ارزش اضافی از طریق فرایند تولید تعریف می‌شود – نقشی رو به کاهش در اقتصاد نژادی-سرمایه‌داری اسرائیل ایفا کرد. کلارنو برای تبیین شدت نسبی خشونت حذفی‌ای که بر فلسطینیان مستعمره‌شده اعمال شده است، توضیح می‌دهد که «تفاوت اصلی میان فلسطین/اسرائیل امروز و آفریقای جنوبی پیش از ۱۹۹۴، مسئله‌ی نیروی کار است» (Clarno 2017, 197–۹۸).  از دهه‌ی ۱۹۲۰، جنبش صهیونیستی در پی تأسیس دولتی بود که مشاغل را برای مهاجر‌نشینان یهودی محفوظ نگه دارد و بدین‌ترتیب وابستگی خود به کارگران فلسطینی را کاهش دهد (Clarno 2017,25–۲۶). پس از تأسیس دولت اسرائیل در ۱۹۴۸، جنبه‌ی حذفی این پروژه‌ی استعمار مهاجر‌نشینانه، و نیز ظرفیت‌های سیاسی و نظامی لازم برای اجرای آن، تنها تشدید شده است.

از سال ۱۹۴۸ به بعد، فلسطینیان نیروی کار کم‌دستمزد را در اختیار اقتصاد اسرائیل قرار می‌دادند. پس از اشغال کرانه‌ی باختری و نوار غزه توسط اسرائیل در سال ۱۹۶۷، فلسطینیان ساکن در سرزمین‌های اشغالی در اقتصاد اسرائیل ادغام شدند و دستمزدی حتی پایین‌تر از فلسطینیان ۱۹۴۸ دریافت می‌کردند. تا اواسط دهه‌ی ۱۹۸۰، %۴۰ از کارگران فلسطینی در داخل اسرائیل اشتغال داشتند که عمدتاً در بخش‌های کشاورزی و ساختمان فعالیت می‌کردند (Clarno 2017, 30). اما از اواخر دهه‌ی ۱۹۸۰ و در طول دهه‌های ۱۹۹۰ و پس از آن، نولیبرالی‌‌‌شدن اقتصاد اسرائیل به‌گونه‌ای عمل کرد که نیروی کار فلسطینی را به‌تدریج غیرضروری ساخت. اسرائیل به سمت اقتصادی مبتنی بر فناوری پیشرفته (high-tech) حرکت کرد و تقاضای خود را برای نیروی کار صنعتی و کشاورزی کاهش داد، و موافقت‌نامه‌های تجارت آزاد به آن امکان داد که تولید را به کشورهای همسایه منتقل کند (Clarno 2017, 40). اسرائیل همچنین نظام محدودکننده‌ی مجوز کار برای فلسطینیان برقرار کرد و هم‌زمان شمار زیادی از کارگران خارجی را وارد کرد تا عدم‌اتکای خود به کارگران فلسطینی را تثبیت کند (Bartram 1998, 303; Berda 2018). این دگرگونی در اقتصاد نژادی-سرمایه‌داری اسرائیل به این معنا بود که فلسطینیان در برابر کشتار و جابه‌جایی به دست دولت اسرائیل و مهاجر‌نشینان اسرائیلی آسیب‌پذیرتر شدند و بدین‌ترتیب راه برای گسترش مهاجر‌سازی در سراسر سرزمین‌های اشغالی فلسطین هموار شد (Diehl and Federman 2024؛ دفتر کمیساریای عالی حقوق بشر سازمان ملل متحد ۲۰۲۴). زیرا به قول کلارنو: «وقتی یک دولت استعماری دیگر برای نیروی کار مستعمره‌شدگان ارزشی قائل نباشد، موانع ساختاری اندکی در برابر حذف وجود خواهد داشت» (Clarno 2017, 198). پرسش این‌جاست: اگر حذف، پروژه‌ی استعمار مهاجر‌نشینانه‌ی اسرائیل را به حرکت درمی‌آورد، اما بهره‌کشی برای اقتصاد آن غیرضروری شده است، چه منطقی بهتر می‌تواند شیوه‌ی تثبیت سرمایه‌داری نژادی در اسرائیل را توضیح دهد؟

۲. آزمایش‌گری و فلسطینیان به‌مثابه آزمودنی‌ها

پس از طرح مسأله‌ی دوگانه‌ی ظاهری میان حذف و بهره‌کشی، و این که نشان دادیم که بهره‌کشی به‌تدریج از مرکزیت اقتصاد نژاد-سرمایه‌داری اسرائیل کاسته شده است، مطالعات جغرافیای زندان‌وار چارچوبی فراهم می‌آورند که می‌تواند به تعریف دقیق‌تری از چگونگی (بی)ارزش‌سازی فلسطینیان از سوی اسرائیل کمک کند. در واقع، سرمایه‌داری نژادی اسرائیل فلسطینیان را برای هدفی دیگر سودمند می‌انگارد: آزمایش‌گری.

جمعیت‌های تحت تبعیض نژادی پیشینه‌ای طولانی در قرار گرفتن در معرض آزمایش‌گری در محدوده‌های جغرافیایی زندان‌وار دارند؛ جغرافیاهایی که بریت راسرت،[۱۸] پژوهشگر، آن‌ها را به‌مثابه فضاهای مهار اجباری تعریف می‌کند که به مکان‌هایی برای آزمایش‌گری انسانی بدل می‌شوند (Rusert 2019,27–۲۸). راسرت از آزمایش‌های پزشکی غیراخلاقی انجام‌شده بر زنان برده گرفته تا آزمایش‌های سفلیس توسکیگی، تاریخچه‌ی آزمایش‌گری انسانی در ایالات متحده را در مزارع، اردوگاه‌های آوارگان، زندان‌ها و دیگر فضاهای زندان‌وار دنبال می‌کند (Rusert 2019, 40). در منظری جهانی‌تر، اشیل امبمبه، نظریه‌پرداز انتقادی، به این نکته اشاره می‌کند که چگونه اختراعاتی چون عقیم‌سازی اجباری «نخستین زمین‌های آزمایشی خود را در جهان استعماری یافتند» (Mbembe 2003, 23).

استعمار مهاجر‌نشینانه‌ی اسرائیل نیز از این قاعده مستثنی نیست. آنتونی لوونشتاین، روزنامه‌نگار تحقیقی، در اثری با نامی گویا از اصطلاح «آزمایشگاه فلسطین» استفاده می‌کند تا نشان دهد که چگونه اسرائیل به فلسطین به‌عنوان زمین آزمایشی برای فناوری‌های تسلیحاتی و نظارتی متکی است – فناوری‌هایی که سپس به کشورهای دیگر صادر می‌شوند (Loewenstein 2023). به گفته‌ی لوونشتاین: «فلسطین کارگاه اسرائیل است؛ جایی که یک ملت اشغالگر در همسایگی خود، میلیون‌ها انسان به‌زیرکشیده‌شده را به‌مثابه آزمایشگاهی برای دقیق‌ترین و موفق‌ترین روش‌های سلطه به کار می‌گیرد»، از جمله «موشک‌ها، سامانه‌های دفاع هوایی، موشک‌های بالستیک، سلاح‌های سایبری و رادار» (Loewenstein 2023,17–۱۸).

منافع اسرائیل در حفظ جمعیتی اشغالی به‌مثابه منبعی برای آزمایش‌گری از نظر اقتصادی قابل توجیه است. جف هالپر،[۱۹] پژوهشگر، این ادعا را که اشغال فلسطین بار مالی بر دوش اسرائیل تحمیل می‌کند رد می‌کند و تأکید دارد که بدون آن، اسرائیل قادر به رقابت در بازارهای بین‌المللی تسلیحات و امنیتی‌سازی نخواهد بود (Halper 2015). دلیل این امر آن است که مزیت رقابتی اسرائیل در این نکته نهفته است که فناوری‌هایی را صادر می‌کند که «میدان‌آزموده» و «در نبرد اثبات‌شده» هستند؛ عباراتی که شرکت‌های تسلیحاتی و امنیت سایبری اسرائیل هنگام معرفی محصولات خود در نمایشگاه‌های تسلیحاتی به مشتریان بالقوه از سراسر جهان به‌طور گسترده به کار می‌برند (Giovannetti 2019). کهنه‌سربازان ارتش اسرائیل – که اغلب پس از پایان خدمت خود در صنایع تسلیحاتی مشغول به کار می‌شوند – این واقعیت را، که این سلاح‌ها بر فلسطینیان به‌طور دقیق تنظیم و بهینه‌سازی شده‌اند (fine-tuned)، به‌عنوان یک مزیت بازاریابی و نقطه‌ی فروش تبلیغ می‌کنند. همان‌گونه که نوو گوردون،[۲۰] استاد دانشگاه، بیان می‌کند: «آن‌ها می‌توانند بگویند: “هی، این توسط ارتش اسرائیل استفاده شده است، پس باید خوب باشد.” و این به بازاریابی این کالاها کمک می‌کند» (Kennard 2016) در واقع، سیبات (SIBAT) – سازمان دولتی مسئول بازاریابی و فروش سامانه‌ها و تجهیزات مازاد ارتش اسرائیل – بر «مزیت منحصر‌به‌فرد» اسرائیل تأکید می‌کند؛ مزیتی که بر اساس آن فناوری‌های کنترلیِ صادراتی آن نه در آزمایشگاه‌های نظامی، بلکه در «آزمایشگاه واقعیِ منازعه‌ی کنترل‌شده» در سرزمین‌های اشغالی شکل می‌گیرند (Halper 2023, 97). این سلاح‌ها و فناوری‌ها نه‌تنها در شرایط واقعی میدان مورد آزمایش قرار می‌گیرند، بلکه با توجه به فاصله‌های زمانی اندک میان کارزارهای نظامی اسرائیل، توسعه و بازتکرار (iteration) این سامانه‌ها می‌تواند در چرخه‌هایی  بدون تأخیر زمانی (real-time) انجام شود.

حتی پیش از پذیرش گسترده‌ی هوش مصنوعی، فناوری‌های نظارتی و زندان‌وار که بر فلسطینیان به‌کار گرفته و بهینه‌سازی شده بودند، توسط اسرائیل به کشورهای مختلف در سراسر جهان صادر می‌شدند. برای نمونه، نرم‌افزار پگاسوس که توسط شرکت اسرائیلی امنیت سایبری ان‌اس‌او گروپ[۲۱] توسعه یافته و نخستین‌بار بر روی مدافعان حقوق بشر فلسطینی آزمایش شده بود، در دست‌کم ۴۵ کشور مورد استفاده قرار گرفته است (Buxbaum 2022). امکان آزمایش بر روی فلسطینیان همچنین به اسرائیل این قابلیت را داده است که به یکی از رهبران جهانی در حوزه‌ی وسایل نقلیه‌ی هوایی بدون سرنشین (پهپادها) تبدیل شود. از سال ۱۹۸۵، اسرائیل بزرگ‌ترین صادرکننده‌ی پهپاد در جهان بوده و ۶۰.۷ % از فروش جهانی را به خود اختصاص داده است (Arnett 2015). این فناوری که نخستین‌بار در دهه‌ی ۱۹۵۰ مورد استفاده قرار گرفت، از طریق چهار دهه به‌کارگیری مداوم و بازتکرار در بستر اشغال فلسطین، با سرعتی شتابان توسعه یافته است (Horowitz 2011). علاوه بر پهپادها، دیگر نوآوری‌های اسرائیل که به‌طور گسترده صادر شده‌اند شامل تجهیزات دید در شب، بمب‌های نفوذکننده به سازه‌های بتن‌آرمه، و موشک‌های ضدتانک است (Northam 2014). در سال‌های اخیر نیز اسرائیل به‌طور فزاینده‌ای بر توسعه‌ی هوش مصنوعی تکیه کرده است تا نقش خود را به‌عنوان یکی از صادرکنندگان پیشروی جهانی فناوری‌های نظارتی و تسلیحاتی تثبیت و تداوم بخشد.

۳. هوش مصنوعی و دو جبهه‌ی سلب مالکیت داده

سال‌های اخیر شاهد پیشرفت‌هایی در حوزه‌ی هوش مصنوعی بوده است و هم‌زمان با آن، علاقه‌ای فزاینده و جهشی در سرمایه‌گذاری بر سامانه‌های نظارتی و جنگی مبتنی بر هوش مصنوعی شکل گرفته است (Robins-Early 2024b). اسرائیل هوش مصنوعی را به‌عنوان بخشی از استراتژی نظامی خود پذیرفته و ارزش آن را در تقویت قابلیت‌های تسلیحاتی، از جمله پهپادها برای شلیک و بمباران اهداف، خودروهای زرهی برای حرکت خودمختار، سامانه‌های حسگر شبکه‌ای برای ارائه‌ی داده‌های میدان نبرد  بدون تأخیر زمانی به تیراندازان، تفنگ‌های مجهز به ریزرایانه برای پشتیبانی از نیروهای پیاده در «افزایش مرگباری»، و تقویت بسیاری از ابزارهای دیگر نظارت زیست‌سنجشی و تسلیحات خودمختار، تشخیص داد (Fatafta and Leufer 2024; Frantzman 2019, 2020, 2021, 2022; Goodfriend 2023a).

«هوش مصنوعی» اصطلاحی فراگیر و نسبتاً مبهم است که طیف گسترده‌ای از فناوری‌ها را دربر می‌گیرد؛ فناوری‌هایی که وجه مشترک آن‌ها نیاز به داده است – چه برای آموزش مدل‌ها جهت تشخیص الگوها یا انجام پیش‌بینی، چه برای آزمون و ارزیابی عملکرد مدل‌ها، و چه برای اجرای کارکردهایی مانند بهینه‌سازی، پردازش یا خودکارسازی. به گفته‌ی مؤسسه‌ی اوپن دیتا:[۲۲] «بدون داده، هوش مصنوعی وجود ندارد» (Snaith 2023). گذار از آموزش به آزمون و سپس اجرا، چندان یک فرایند خطی نیست، بلکه یک حلقه‌ی بازخورد[۲۳] است: فرایندی پویا که در آن یک سامانه‌ی هوش مصنوعی از خروجی‌های خود به‌عنوان ورودی‌های جدید برای یادگیری و بهبود مستمر استفاده می‌کند.

در نظر گرفتن فلسطینیان به‌مثابه سوژه‌های آزمایشی برای سامانه‌های هوش مصنوعی اسرائیل، مستلزم تلقی آن‌ها به‌عنوان بسترهایی برای گردآوری داده‌های حیاتی است. هوش مصنوعی در مواجهه‌ی دقیق‌تر با فناوری‌های مرگبار، نوعی دوگانگی را در این فرایند گردآوری داده وارد می‌کند: هم زندگی و هم مرگ فلسطینیان، برای سامانه‌هایی که با داده آموزش دیده و با داده‌های اسرائیلی در حوزه‌ی جنگ‌افروزی و زندان‌سازی تغذیه شده‌اند، نقاط داده‌ای تولید می‌کنند.

۱.۳. زندگی فلسطینیان به‌مثابه داده

برای درک این‌که چگونه زندگی فلسطینیان داده‌ای حیاتی برای توسعه و عملکرد سامانه‌های هوش مصنوعی تأمین می‌کند، باید شرایط گردآوری مداوم داده را که بر فلسطینیان تحمیل شده است به‌طور کامل درک کرد. این شرایط موضوع بررسی‌های بسیاری از روزنامه‌نگاران و سازمان‌های حقوق بشری بوده است. در واقع، وضعیت ردیابی و نظارت بی‌وقفه‌ای که فلسطینیان در آن زندگی می‌کنند، به‌درستی می‌تواند به‌عنوان سلب مالکیت داده توصیف شود: فرایندی مستمر از استخراج داده‌های شخصی و زیست‌سنجشی (Gray 2021).

برای نمونه، در کرانه‌ی باختری، گزارش‌های تحقیقی در سال ۲۰۱۹ نشان داد که استارتاپ اسرائیلی «انی‌ویژن»[۲۴] با استفاده از بیش از ۱۱۵هزار دوربین – که مکان بسیاری از آن‌ها مشخص نبود – به‌طور مخفیانه فلسطینیان را در سراسر کرانه‌ی باختری زیر نظر داشت. این سامانه‌ی تشخیص چهره توسط انی‌ویژن «غیرارادی» توصیف شد، چرا که فلسطینیان بدون رضایت یا ثبت‌نام، به‌طور خودکار ردیابی، طبقه‌بندی و شناسایی می‌شوند (Solon 2019). انی‌ویژن به‌هیچ‌وجه تنها شرکتی نیست که چنین فناوری‌های گردآوری داده‌ی زیست‌سنجشی را پیاده‌سازی می‌کند. «کورسایت»[۲۵] شرکت دیگری در زمینه‌ی تشخیص چهره است که فناوری‌ای را برای دوربین‌های نصب‌شده بر بدن پلیس توسعه داده است؛ فناوری‌ای که «می‌توانست فوراً فردی را در میان جمعیت شناسایی کند، حتی اگر صورت او پوشیده باشد، و آن شخص را با عکس‌هایی از سال‌های پیش مطابقت دهد» (Loewenstein 2023, 60). علاوه بر شرکت‌های خصوصی، خود ارتش اسرائیل از شبکه‌ی گسترده‌ای از دوربین‌ها، تلفن‌های همراه و دیگر ابزارهای گردآوری داده برای مستندسازی فلسطینیان استفاده می‌کند. در سال ۲۰۲۱، گزارشی تحقیقی پایگاه داده‌ی عظیمی که ارتش اسرائیل از آن استفاده می‌کند، به نام «ولف پک»[۲۶] افشا کرد. این پایگاه داده شامل پروفایل‌هایی درباره‌ی تقریباً هر فلسطینی در کرانه‌ی باختری است، از جمله تصاویر، اعضای خانواده و سابقه‌ی خانوادگی، وضعیت تحصیلی، پلاک خودروها و موارد دیگر. (Dwoskin 2021). برای تغذیه‌ی این پایگاه داده، سازمان حقوق بشری عفو بین‌الملل در سال ۲۰۲۳ وجود سامانه‌ی پیش‌تر گزارش‌نشده‌ای به نام «رد ولف»[۲۷] را افشا کرد؛ سامانه‌ای که ۱۰ تا ۱۵ دوربین را در ایست‌های بازرسی نظامی در سراسر کرانه‌ی باختری مستقر می‌کند تا تصاویر چهره‌ی فلسطینیان را بدون رضایت آن‌ها اسکن و ثبت کند. علاوه بر اتکا به این شبکه‌ی دوربین‌های امنیتی، خود سربازان اسرائیلی نیز از سال ۲۰۲۰ از برنامه‌ی تلفن هوشمندی به نام «بلو ولف»[۲۸] برای ثبت تصاویر فلسطینیان استفاده می‌کنند. به گفته‌ی گزارش‌ها، سربازان در یک نظام بازی‌گونه تشویق می‌شدند رقابت کنند؛ نظامی که به افرادی که بیشترین عکس را ثبت می‌کردند پاداش می‌داد (Amnesty International 2023a). این سازوکار گسترده‌ی ثبت چهره در تضاد با محکومیت‌ها و فراخوان‌های ممنوعیت نظارت مبتنی بر تشخیص چهره از سوی سازمان‌های جامعه‌ی مدنی در سراسر جهان قرار دارد؛ از جمله عفو بین‌الملل، دیده‌بان حقوق بشر و بیش از ۱۷۰ نهاد دیگر (Amnesty International 2021).

در غزه، گردآوری داده به‌طور سنتی از طریق شنود مکالمات تلفنی، پایش تصاویر پهپادها و ماهواره‌ها، و نفوذ به حساب‌های رسانه‌های اجتماعی و زیرساخت‌های مخابراتی انجام می‌شد، و اسرائیل مدعی بود که قادر است هر مکالمه‌ی تلفنی را رهگیری و ضبط کند (Masarwa 2021). از اکتبر ۲۰۲۳، گزارش شده است که اسرائیل هم‌زمان با تهاجم زمینی خود به این منطقه، یک برنامه‌ی جدید تشخیص چهره‌ی انبوه را به غزه گسترش داده است. سربازان اسرائیلی در امتداد همان راهروهای تخلیه‌ای که از فلسطینیان می‌خواستند برای یافتن امنیت از آن‌ها عبور کنند، ایست‌های بازرسی مجهز به دوربین‌های تشخیص چهره برپا کردند و افراد را در مسیر، به‌صورت زیست‌سنجشی بررسی می‌کردند (Robins-Early 2024a). نیروهای نظامی اسرائیل با استفاده از ابزار سفارشی شرکت کورسایت و همچنین گوگل فوتوز Google Photos، در پی تهیه‌ی یک «فهرست هدف» از افراد مظنون به فعالیت‌های نظامی بودند. با وجود دقت ادعاشده‌ی این سامانه، مواردی از شناسایی نادرست گزارش شده است که در پی آن فلسطینیان بازداشت، بازجویی و مورد ضرب‌وشتم قرار گرفته‌اند (Frenkel 2024). طرح‌های احتمالی اسرائیل برای ایجاد «جوامع حصارکشی‌شده» در غزه – که دسترسی فلسطینیان به کمک‌های بشردوستانه را به پذیرش آزمون‌های زیست‌سنجشی، از جمله تشخیص چهره، مشروط می‌کند – سلب مالکیت داده‌ای را بیش از پیش تثبیت خواهد کرد. گروه‌های حقوق بشری این سازوکار را به‌عنوان یک مکانیسم «زیست‌سنجی در برابر غذا» و شکلی از نظارت اجباری توصیف کرده‌اند (Cogan and Scahill 2024; Frankel and Mednick 2025; Skyline International for Human Rights 2025). به‌طور خلاصه، اگر فلسطینیان زنده نباشند – به مراکز توزیع کمک برای یافتن غذا مراجعه نکنند یا از ایست‌های بازرسی و راهروهای تخلیه عبور نکنند – اسرائیل قادر نخواهد بود آنان را از داده‌هایشان سلب مالکیت کند.

۲.۳. مرگ فلسطینیان به‌مثابه داده

داده‌هایی که از فلسطینیان سلب مالکیت می‌شود، اسرائیل برای هدف‌گذاری آنان به‌کار می‌گیرد. اسرائیل با بهره‌گیری از کارکردهای پیش‌بینی‌کننده‌ی هوش مصنوعی می‌تواند فلسطینیان را به‌صورت پیش‌دستانه هدف قرار دهد؛ برای نمونه، از طریق پایش رسانه‌های اجتماعی آنان به‌منظور فعالیت‌های جرم‌انگارانه‌ای که ادعا می‌شود در آینده انجام خواهند داد (Hever 2023). در برخی موارد نیز، همان سامانه‌هایی که داده را گردآوری می‌کنند، خودِ ابزار هدف‌گذاری هستند. نمونه‌ای برجسته را می‌توان در شهر الخلیل (هبرون) مشاهده کرد؛ جایی که «حسگرهای حرکت و حرارت، اسکنرهای پلاک خودرو، الگوریتم‌های تشخیص چهره و نظارت مداربسته‌ی ۲۴ ساعته» برای پایش فلسطینیان – گاه حتی در داخل خانه‌هایشان – به‌کار گرفته می‌شود (Goodfriend 2023b, 461). در سال ۲۰۲۲، اسرائیل سامانه‌ی کنترل جمعیت از راه دور را معرفی کرد که از هوش مصنوعی برای تعیین اهداف خود استفاده می‌کند. این سامانه که توسط شرکت اسرائیلی «اسمارت‌شوتر»[۲۹] توسعه یافته است، قادر است گاز اشک‌آور، نارنجک‌های شوک‌آور یا گلوله‌های اسفنجی را به سمت اهداف شناسایی‌شده شلیک کند (Fatafta 2023, 183). این مثال نشان می‌دهد که چگونه لحظات هدف‌گذاری، خود به سازوکاری برای گردآوری و تغذیه‌ی داده به ابزارهای مبتنی بر هوش مصنوعی تبدیل می‌شوند؛ ابزارهایی که فلسطینیان را به‌مثابه اهداف حملات (احتمالاً مرگبار) بازنمایی و تولید می‌کنند.

علاوه بر زندگی‌شان، مرگ فلسطینیان نیز به نقاط داده‌ای برای اسرائیل تبدیل می‌شود تا فناوری‌های مرگبار خود را دقیق‌تر تنظیم کرده و کارآمدی آن‌ها را به نمایش بگذارد. از آنجا که هوش مصنوعی مستلزم یک حلقه‌ی بازخورد داده‌ای مداوم است، داده‌های مربوط به زندگی فلسطینیان هدف‌گذاری آن‌ها را در لحظه تسهیل می‌کند، و داده‌های حاصل از هدف‌گذاری – و کشتار – آن‌ها، دقت هدف‌گذاری‌های آینده را بهبود می‌بخشد. برای نمونه، «اسپایس ۲۵۰»[۳۰] یک سامانه‌ی هوش مصنوعی است که بر روی بال‌های هواپیماهای حامل بمب نصب می‌شود و توسط اسرائیل برای تشخیص خودکار اهداف به کار می‌رود (Frantzman and Atherton 2019). یکی از نمایندگان شرکت «رافائل سامانه‌های دفاعی پیشرفته»[۳۱] – شرکت اسرائیلی تأمین‌کننده‌ی این فناوری برای ارتش اسرائیل – اظهار داشت که اسپایس ۲۵۰ امکان «یادگیری عمیق آینده بر اساس داده‌های استخراج‌شده از پرتاب‌های پیشین» را فراهم می‌کند و دو کارکرد هم‌زمان را انجام می‌دهد: نخست، ارزیابی بی‌درنگ خسارت واردشده به هدف در جریان مأموریت؛ و دوم، استخراج داده‌های پس از مأموریت برای به‌روزرسانی‌های آینده (Frantzman and Atherton 2019). به بیان ساده، اسپایس ۲۵۰ داده‌های حاصل از خسارت ناشی از بمب‌ها در یک مأموریت را تحلیل می‌کند تا مدل سامانه را بهبود دهد و میزان تخریبی را که بمب‌های مورد استفاده در مأموریت‌های بعدی می‌توانند ایجاد کنند، افزایش دهد.

در نهایت، شیوه‌های آزمایش‌گری لازم برای آموزش، اجرا و آزمون ابزارهایی مانند اسپایس ۲۵۰، داده‌هایی تولید می‌کند که نه‌تنها به بهبود این سامانه‌ها کمک می‌کند، بلکه برای بازیگران اقتصادی اسرائیلی – که آن‌ها را توسعه می‌دهند، به کار می‌گیرند و به فروش می‌رسانند – سود مالی نیز به همراه دارد. تنها چند ماه پس از اکتبر ۲۰۲۳، استارتاپ‌های اسرائیلی مانند «اکسون ویژن» – که پشت برخی از محصولات مبتنی بر هوش مصنوعی مستقر در غزه قرار دارند – شروع به تبلیغ این موضوع کردند که «دقت» محصولات‌شان در نتیجه‌ی استفاده‌ی میدانی، با هدف افزایش قابلیت بازاریابی آن‌ها برای مشتریان بالقوه، «بهبود یافته است» (Kumon 2024). به‌طور مشابه، داده‌هایی که اثبات می‌کند این ابزارها اهداف خود را با موفقیت مورد اصابت قرار داده‌اند، توسط توسعه‌دهندگان تسلیحات اسرائیلی برای نمایش کارآمدی محصولاتشان به کار گرفته می‌شود. گزارش شده است که این شرکت‌ها در نمایشگاه‌های تسلیحاتی، ویدئوهایی را به‌عنوان مواد تبلیغاتی ارائه می‌کنند؛ از جمله سامانه‌هایی که در عرض چند ثانیه کل محله‌های فلسطینی را با خاک یکسان می‌کنند، یا حملات پهپادی‌ای که «تعدادی از فلسطینیان بی‌گناه، از جمله کودکان» را کشته‌اند (Baroud 2020; Loewenstein 2023,7–۸). به بیان خلاصه، اگر فلسطینیان نمی‌مردند، اسرائیل به داده‌های لازم برای تکمیل مرگباری سامانه‌های هوش مصنوعی خود، اثبات قابلیت‌های آن‌ها، و بازاریابی آن‌ها برای خریداران بالقوه دسترسی نداشت.

۴. جهان‌ ـ مرگ الگوریتمی و دورریختنیِ مرگ‌سیاست

داده‌هایی که در نتیجه و در خدمت استقرار آزمایشی و بهبود سامانه‌های مرگبار هوش مصنوعی تولید می‌شوند، از فرآیندهای تجدیدساخت نولیبرالی حمایت می‌کنند؛ فرآیندهایی که به گفته‌ی کلارنو، «گسترش پروژه‌های مرگ‌سیاست برای حذف فقیران تحت تبعیض نژادی» را تسهیل می‌کنند (Clarno 2017, 201). مرگ‌سیاست، مفهومی که اشیل امبمبه، نظریه‌پرداز و پژوهشگر، ابداع کرده است، به سیاستِ تابع‌سازی زندگی در برابر قدرت مرگ اشاره دارد (Mbembe 2003, 39).  در ارتباط با زمینه‌ای که در این مقاله بررسی می‌شود، به گفته‌ی امبمبه، «پیشرفته‌ترین شکل» مرگ‌سیاست، «اشغال استعماری معاصر فلسطین» است (Mbembe 2019, 80). در واقع، شیوه‌های مرگ‌سیاست اسرائیل طی سال‌ها به‌طور گسترده مستندسازی شده‌اند و شامل مواردی از جمله شکنجه و کشتار زندانیان سیاسی فلسطینی بازداشت‌شده، مثله‌کردن بدن‌های فلسطینی، حمله به زیرساخت‌های سلامت و حیات، اعمال محدودیت بر دسترسی فلسطینیان به درمان پزشکی، برداشت اعضای بدن از فلسطینیانی جان‌باخته، و نگهداری منجمدشده یا امتناع از تحویل پیکرها به خانواده‌هایشان می‌شود (Alareer 2016; Amnesty International 2023b; Daher-Nashif 2021, 945; Deprez 2023,8–۹; Hanbali et al. 2024,2).

وقتی صحبت از پیشرفت‌های فناوری‌های هوش مصنوعی به میان می‌آید، دن مک‌کیلن،[۳۲] پژوهشگر، با ارجاع به کار امبمبه نسبت به مسیر مرگ‌سیاست آن هشدار می‌دهد. او توضیح می‌دهد که هوش مصنوعی به شکلی از حکمرانی در حوزه‌های خدمات اجتماعی، مراقبت‌های بهداشتی و محیط‌های زندان‌وار تبدیل می‌شود؛ حکمرانی‌ای که «نه‌تنها در تخصیص حمایت برای زندگی تبعیض قائل می‌شود، بلکه کنش‌هایی را که امکان مرگ را فراهم می‌کنند نیز مجاز می‌شمارد» (McQuillan 2022, 85). به گفته‌ی مک‌کیلن، هوش مصنوعی از طریق تشدید نابرابری‌های نولیبرالی و محروم‌سازی افراد از دسترسی به نیازهای اساسی مانند مسکن، غذا و مراقبت‌های بهداشتی، آن‌ها را در برابر آسیب‌های قابل پیشگیری آسیب‌پذیر می‌سازد.

گزارش تحقیقی اخیر مجله‌ی ۹۷۲+ تحلیلی روشنگرانه از به‌کارگیری ابزارهای الگوریتمی هدف‌زایی در کارزار جاری اسرائیل در غزه ارائه داده است؛ از جمله «گاسپل»،[۳۳] سامانه‌ای که ساختمان‌ها را به‌عنوان اهداف حملات هوایی علامت‌گذاری می‌کند، و «لوندر»،[۳۴] برنامه‌ای که اهداف انسانی را شناسایی کرده و فهرست‌های کشتار تولید می‌کند (Abraham 2023, 2024). اگرچه استفاده از برنامه‌های هوش مصنوعی مانند گاسپل پیش‌تر و سال‌ها قبل از ۲۰۲۳ افشا شده بود، جزئیات مربوط به استقرار این سامانه‌های هدف‌زایی از آن زمان تصویری نگران‌کننده‌تر از مرگ‌سیاست هوش مصنوعی آشکار کرده است (Ahronheim 2021). در امتداد هشدارهای مک‌کیلن، به‌کارگیری ابزارهای هدف‌زایی الگوریتمی مانند گاسپل و لوندر در غزه نشانگر تشدید آشکار ظرفیت خودکارسازی و نظام‌مندسازی تکنیک‌های مرگ‌سیاست اسرائیل است.

اگرچه تصویر کامل از این‌که چه داده‌ای توسط این سامانه‌های هدف‌زایی استفاده می‌شود همچنان روشن نیست، منابع ارتش اسرائیل گزارش داده‌اند که توصیه‌های هدف‌زایی مبتنی بر هوش مصنوعی بر اساس پردازش میلیاردها نقطه داده از حسگرهای هوایی و زیرزمینی، تصاویر ماهواره‌ای، ارتباطات رهگیری‌شده، فعالیت‌های رسانه‌های اجتماعی و موارد دیگر استوار است؛ داده‌هایی که به تسهیل خسارت در مقیاس وسیع و «تلفات قابل‌توجه غیرنظامیان در غزه از طریق گردآوری و استفاده‌ی خطاپذیر از اطلاعات قابل شناسایی شخصی» منجر می‌شوند (Dwoskin 2024; Forensic Architecture 2024; Khlaaf, West, and Whittaker 2024,2). بدین‌ترتیب، این ابزارها نه‌تنها مسئول کشتار و مثله‌سازی مستقیم ده‌ها هزار فلسطینی هستند، بلکه به مرگ تدریجی صدها هزار نفر دیگر نیز کمک می‌کنند – مرگی که در نتیجه‌ی تخریب غذا، آب، سرپناه، خدمات پزشکی و بهداشتی، و سایر زیرساخت‌ها و نظام‌های حمایتی رخ می‌دهد؛ یا همان چیزی که امبمبه آن را «تخریب حساب‌شده و نظام‌مند» زیرساخت‌ها توصیف می‌کند (Hil and Polya 2025; Khatib, McKee, and Yusuf 2024, 237; Mbembe 2019, 82).

در پایان، این مقاله مرگ‌سیاست را به‌عنوان منظری تحلیلی در نظر می‌گیرد که از طریق آن می‌توان سامانه‌های الگوریتمی هدف‌زاییِ مورد استفاده در غزه را تحلیل کرد. سه مداخله‌ی اساسی، بخشی از این چارچوب تحلیلی را تشکیل می‌دهند: نخست، شرایط مرگ فوری و تدریجی که توسط این سامانه‌ها تسهیل می‌شود، مفهوم امبمبه از «جهان‌ ـ مرگ‌ها» را به کار می‌گیرد؛ جهان‌ ـ مرگ‌هایی که به‌عنوان «اشکال جدید و منحصربه‌فردی از هستی اجتماعی تعریف می‌شوند که در آن‌ها جمعیت‌های عظیم در معرض شرایط زیستی‌ای قرار می‌گیرند که به آن‌ها وضعیت مردگانِ زنده را اعطا می‌کند» (Mbembe 2003, 40). نیازهای داده‌ای این سامانه‌ها فلسطینیان را در یک جهان‌ ـ مرگ قرار می‌دهد؛ جایی که آن‌ها عملاً به مردگانِ زنده تبدیل می‌شوند – به اندازه‌ای زنده که بتوان از آن‌ها سلب مالکیت داده‌ای کرد؛ داده‌هایی که برای هدف‌گذاری آنان و افزایش مرگباری ابزارهایی به کار می‌رود که همچنان مرگ را تولید می‌کنند.

دومین ویژگی مرگ‌سیاست، تولید جهان‌ ـ مرگ‌ها از طریق سلاح‌هایی است که «با هدف حداکثر تخریب افراد به کار گرفته می‌شوند» (Mbembe 2019, 92). در اینجا، مقیاس بی‌سابقه‌ای که اسرائیل از طریق آن اهداف را با سرعت شناسایی می‌کند، قابل چشم‌پوشی نیست، زیرا مقامات ارتش اسرائیل هوش مصنوعی را «چندبرابرکننده‌ی نیرو» توصیف کرده‌اند که به آن‌ها ظرفیت اجرای تعداد بسیار بیشتری حمله‌ی هوایی نسبت به گذشته را اعطا می‌کند (Biesecker, Mednick, and Burke 2025). برای نمونه، آن‌ها اشاره کرده‌اند که «گاسپل» روزانه ۱۰۰ هدف انسانی تولید می‌کند، در حالی که ارتش اسرائیل چند سال پیش تنها قادر به تولید حدود ۵۰ هدف در سال بود (Abraham 2023). برای دستیابی به چنین سطحی از «کارآمدی عملیاتی قابل‌توجه»، به توان محاسباتی عظیمی برای اجرای این ابزارهای هوش مصنوعی نیاز است – توانی که از طریق مراکز داده، مزرعه‌های سِروِر و خدمات ابری شرکت‌های فناوری بزرگ مانند آمازون، سیسکو، دل، گوگل، مایکروسافت، اوپن‌ای‌آی و پالانتیر فراهم می‌شود (Biesecker, Mednick, and Burke 2025). این سامانه‌ها، در مقایسه با شیوه‌های پیشین شناسایی اهداف، توانایی هدف‌گذاری گسترده و حداکثری افراد را برای اسرائیل فراهم می‌کنند.

سومین مداخله‌ی تحلیلی، مفهوم امبمبه از «جهان ـ مرگ‌ها» در وضعیت محاصره است و این‌که چگونه چنین وضعیتی امکان نوعی «شیوه‌ی کشتار» را فراهم می‌کند که در آن «کل جمعیت‌ها هدف قرار می‌گیرند» (Mbembe 2019, 82). این توصیف برای استقرار ابزارهای هدف‌زایی الگوریتمی در نوار غزه محاصره‌شده کاملاً مناسب است. برای آگاهی از زمینه، گفته می‌شود که سامانه‌ی «لوندر» که توسط افسران ارتش اسرائیل مورد استفاده قرار می‌گیرد، داده‌های شخصی فلسطینیان را در سیستم خود وارد کرده و به هر فرد یک امتیاز اختصاص می‌دهد (Biesecker, Mednick, and Burke 2025). هنگامی که امتیاز یک فرد از آستانه‌ی از پیش تعیین‌شده فراتر می‌رفت، آن فرد به‌عنوان هدفی برای کشتن علامت‌گذاری می‌شد. پس از اتمام فهرست اهدافی که از آستانه‌ی اول عبور کرده بودند، افسران ارتش اسرائیل آستانه‌ی جدید و پایین‌تری تعیین می‌کردند که به آن‌ها اجازه می‌داد افراد بیشتری را هدف قرار دهند (Abraham 2024). تنظیم نظام امتیازدهی «لوندر» به‌گونه‌ای است که هر فلسطینی در غزه می‌تواند در هر لحظه به هدف تبدیل شود و در نتیجه، کل جمعیت ساکنان غزه را به اهداف بالقوه بدل می‌سازد.

به‌طور کلی، سامانه‌های هوش مصنوعی که به سلب مالکیت داده از هر دو حوزه‌ی زندگی و مرگ فلسطینیان وابسته‌اند، قادر به تولید انبوه فهرست‌های اعدام هستند و به‌گونه‌ای تنظیم شده‌اند که کل جمعیت غزه را به‌عنوان هدف حفظ کنند – و همگی وجود یک «جهان ـ مرگ الگوریتمی» را تجسم می‌بخشند؛ جهانی که توسط منطق آزمایش‌گری برگرفته از سایر جغرافیاهای زندان‌وار نژادی اداره می‌شود. این سامانه‌ها همچنین بر محوریت «دورریختنی‌بودن» در پروژه‌ی مرگ‌سیاست اسرائیل دلالت دارند. کلارنو در اظهارنظری درباره‌ی کارزار نسل‌کشی‌جویانه‌ی جاری در غزه تأکید می‌کند که اقتصاد نژادی-سرمایه‌داری اسرائیل «دورریختنی‌بودن نژادی را به یک فرصت بازار تبدیل کرده است» (Clarno 2024). به‌طور مشابه، لوونشتاین هشدار می‌دهد که «اسرائیل مدلی در غزه ارائه کرده است از این‌که چگونه می‌توان یک جامعه را (هنوز) بدون پیامدهای جدی نابود کرد» – و این امر توجه دیگر نیروهایی را که مایل‌اند با جمعیت‌هایی که نامطلوب تلقی می‌کنند به شیوه‌ای مشابه برخورد کنند، جلب کرده است (Loewenstein 2025). به‌عبارتی، اسرائیل نه‌تنها سلاح‌ها و سامانه‌های نظارتی را به خریداران مشتاق عرضه می‌کند، بلکه نقشه‌ی راهی نیز صادر می‌کند – با هوش مصنوعی به‌عنوان جدیدترین ابزار مرگ‌سیاستِ دورریختنی‌سازی – برای نحوه‌ی مدیریت جمعیت‌های ناخواسته از طریق تبدیل آن‌ها به موجوداتی قابل‌مصرف و حذف‌شدنی.

۵. یک پیش‌نمایه‌ی خطرناک

اسرائیل به‌عنوان یک پروژه‌ی نژادی-سرمایه‌داری که به‌طور مؤثر وابستگی خود به نیروی کار فلسطینی را کاهش داده است، به‌واسطه‌ی جایگاه ژئوپلیتیکی‌اش با موانع اندکی در برابر شیوه‌های استعمار مهاجر‌نشینانه مواجه است؛ شیوه‌هایی که هدف‌شان حذف فلسطینیان به‌منظور جایگزینی آن‌ها با مهاجر‌نشینان است؛ با این حال، «حذف» به‌تنهایی به‌طور کامل مشخص نمی‌کند که اسرائیل چگونه فلسطینیان را تحت سلطه قرار می‌دهد. این مقاله به تبارشناسی جغرافیاهای زندان‌وار نژادی – مزارع، اردوگاه‌های آوارگان و زندان‌ها – به‌عنوان مکان‌های آزمایش انسانی روی آورده است. این کار را انجام داده است تا بررسی کند که چگونه فلسطینیان به‌عنوان ابژه‌های آزمایش‌گری به کار گرفته می‌شوند تا مُهر «میدان‌آزموده» بر محصولاتی زده شود که سوداگران جنگی اسرائیل آن‌ها را در سراسر جهان بازاریابی و صادر می‌کنند.

در اینجا کشاکشی نهفته است که برای دلیل وجودی[۳۵] اسرائیل به‌عنوان یک پروژه‌ی همزمان استعمار مهاجر‌نشینانه و نژادی-سرمایه‌داری محوری است. از یک سو، از منظر سیاسی، شیوه‌های حذفی اسرائیل به‌عنوان یک رژیم استعمار مهاجر‌نشینانه بر ضرورتی برای نابودی سوژه‌ی استعماری دلالت دارند – ضرورتی که تا حد زیادی از سوی جامعه‌ی اسرائیل مورد چشم‌پوشی یا تأیید ضمنی قرار می‌گیرد (Hardigan 2024). از سوی دیگر، از منظر اقتصادی، اقتصاد نژادی-سرمایه‌داری اسرائیل به فلسطینیان به‌عنوان سوژه‌های آزمایش‌گری نیاز دارد تا جایگاه خود را به‌عنوان یکی از صادرکنندگان پیشروی فناوری‌های نظارتی و تسلیحاتی تثبیت کند.

پذیرش و تثبیت فزاینده‌ی هوش مصنوعی در نظارت و جنگ‌افروزی، منطق آزمایش‌گریِ مشخصه‌ی جغرافیاهای زندان‌وار را دگرگون می‌کند. نیاز به حجم عظیمی از داده‌های پیوسته‌درحال‌به‌روزرسانی، پارادایمی را معرفی می‌کند که در آن سامانه‌های هوش مصنوعی فلسطینیان را – هم در زندگی و هم در مرگ – از داده‌هایشان سلب مالکیت می‌کنند. اسرائیل به اطلاعاتی متکی است که از زندگی فلسطینیان تولید می‌شود تا آن‌ها را هدف قرار دهد، و به اطلاعات حاصل از مرگ فلسطینیان برای بهبود و بازاریابی سامانه‌های هوش مصنوعی‌ای متکی است که به هدف‌گیری دیگران ادامه خواهند داد.

تازه‌ترین استقرار سامانه‌های هدف‌زایی الگوریتمی در غزه از اکتبر ۲۰۲۳ به بعد، این دوگانگی را به خط مقدم آورده است. این سامانه‌های هدف‌زایی، داده‌های استخراج‌شده به‌صورت اجباری را از فلسطینیان زنده دریافت می‌کنند – داده‌هایی که این سامانه‌ها آن‌ها را ضبط، پردازش، انتزاع و کمّی‌سازی می‌کنند – و زندگی و کنش اجتماعی را به معیارهایی برای تعیین اینکه چه کسی بیشترین انطباق را برای کشته‌شدن دارد، تبدیل می‌کنند. مرگ فلسطینیان نیز به نوبه‌ی خود داده‌های بیشتری را برای تنظیم دقیق‌تر و تکثیر کشتارهای آینده فراهم می‌آورد. توانایی هدف‌گیری دل‌به‌خواهی کل جمعیتی از فلسطینیان که به‌عنوان «دورریختنی» ساخته شده‌اند، آن‌ها را در نوعی «جهان ـ مرگ الگوریتمی» قرار می‌دهد و مسیر مرگ‌سیاستِ هشداردهنده‌ی هوش مصنوعی را شتاب می‌بخشد، زیرا منطق آزمایش‌گری‌ای که سرمایه‌داری نژادی اسرائیل را پیش می‌برد و خشونت مرگباری که آن را پایدار می‌کند، به‌شدت خودکار و نظام‌مند می‌شود.

سارا فتح‌الله، دانشگاه کمبریج

مشخصات متن اصلی:

Sarah Fathallah, Algorithmic Death-World: Artificial Intelligence and the Case of Palestine, Public Humanities (2026), 2, e7, 1–۱۵ doi:10.1017/pub.2025.10113


[۱]  Hortense J. Spillers

[۲] این عنوان «Mama’s Baby, Papa’s Maybe: An American Grammar Book» – ارجاعی است به نظام برده‌داری در آمریکا که در آن، فرزندان بردگان از نظر قانونی «پدر» نداشتند و هویت آنان صرفاً از طریق مادر (که خود ملکِ ارباب بود) تعریف می‌شد. هورتنس جی. اسپیلرز، نظریه‌پرداز فمینیست سیاه، در این مقاله از «دستور زبان» (grammar) استعاره‌ای برای نظام‌های نمادین، حقوقی و نهادی استفاده می‌کند که بدن سیاهان را عینیت می‌بخشند و مالکیت‌پذیر می‌سازند. «کتاب دستور زبان آمریکایی» به این معنا نه یک کتاب آموزشی، بلکه شرح نظام‌مند قواعد نژاد، مالکیت، جنسیت و خشونت در سنت آمریکایی است. اشاره به «مامان» و «بابا» در عنوان نیز تضادی طنزآمیز با گفتمان خانواده‌ی هسته‌ای سفیدپوست ایجاد می‌کند، جایی که از منظر نظام برده‌داری، مادر تنها حلقه‌ی اثبات‌شده‌ی نسب است و پدر همواره «شاید» (نامعلوم) باقی می‌ماند / مترجم.

[۳] “A mass assassination factory”

[۴] Settler-colonial

[۵] franchise colonialism

[۶] Andy Clarno

[۷] Neoliberal Apartheid

[۸] Antony Loewenstein

[۹] The Palestine Laboratory

[۱۰] Achille Mbembe

[۱۱] Destin Jenkins

[۱۲] Justin Leroy

[۱۳] Histories of Racial Capitalism

[۱۴]  PatrickWolfe

[۱۵] logic of elimination

[۱۶] elimination of the native

[۱۷] Neoliberal Apartheid  

[۱۸] Britt Rusert

[۱۹] Jeff Halper

[۲۰] Neve Gordon

[۲۱] NSO Group

[۲۲] Open Data Institute

[۲۳] feedback loop

[۲۴] AnyVision

[۲۵] Corsight

[۲۶] Wolf Pack

[۲۷] Red Wolf

[۲۸] Blue Wolf

[۲۹] Smartshooter

[۳۰] Spice 250

[۳۱] Rafael Advanced Defense Systems

[۳۲] Dan McQuillan

[۳۳] Gospel

[۳۴] Lavender

[۳۵] raison d’être


منابع

Abraham, Yuval. 2023. “‘A Mass Assassination Factory’: Inside Israel’s Calculated Bombing of Gaza.” +۹۷۲ Magazine, November 30. https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/.

Abraham, Yuval. 2024. “‘Lavender’: The AI Machine Directing Israel’s Bombing Spree in Gaza.” April 3. https://www.972mag.com/lavender-ai-israeli-army-gaza/.

Ahronheim, Anna. 2021. “Israel’s Operation against Hamas Was the World’s First AI War.” The Jerusalem Post, May 27. https://www.jpost.com/arab-israeli-conflict/gaza-news/guardian-of-the-walls-the-first-ai-war-669371.

Alareer, Refaat. 2016. “Israel’s Killer Bureaucracy.” The Electronic Intifada, June 28. https://electronicintifada.net/content/israels-killer-bureaucracy/17226.

Amnesty International. 2021. “Amnesty International and More than 170 Organisations Call for a Ban on Biometric Surveillance.” June 7. https://www.amnesty.org/en/latest/press-release/2021/06/amnesty-international-and-more-than-170-organisations-call-for-a-ban-on-biometric-surveillance/.

Amnesty International. 2023a. “Automated Apartheid: How Facial Recognition Fragments, Segregates, and Controls Palestinians in the OPT.” https://www.amnesty.org/en/documents/mde15/6701/2023/en/.

Amnesty International. 2023b. “Israel/OPT: Horrifying Cases of Torture and Degrading Treatment of Palestinian Detainees amid Spike in Arbitrary Arrests.” https://www.amnesty.org/en/latest/news/2023/11/israel-opt-horrifying-cases-of-torture-and-degrading-treatment-of-palestinian-detainees-amid-spike-in-arbitrary-arrests/.

Arnett, George. 2015. “The Numbers behind the Worldwide Trade in Drones.” The Guardian, March 16. https://www.theguardian.com/news/datablog/2015/mar/16/numbers-behind-worldwide-trade-in-drones-uk-israel.

Baroud, Ramzy. 2020. “Technology of Death: The Not-so-Shocking Report on Israeli Weapons Exports.” The Jordan Times, March 24. https://jordantimes.com/opinion/ramzy-baroud/technology-death-not-so-shocking-report-israeli-weapons-exports.

Bartram, David V. 1998. “Foreign Workers in Israel: History and Theory.” International Migration Review 32 (2): 303. https://doi.org/10.2307/2547185.

Berda, Yael. 2018. Living Emergency: Israel’s Permit Regime in the Occupied West Bank. Stanford Briefs.

Biesecker, Michael, Sam Mednick, and Garance Burke. 2025. “As Israel Uses US-Made AI Models in War, Concerns Arise about Tech’s Role in Who Lives and Who Dies.” AP News, February 18. https://apnews.com/article/israel-palestinians-ai-technology-737bc17af7b03e98c29cec4e15d0f108.

Buxbaum, Jessica. 2022. “Israel Experiments on Palestinians with AI-Powered Gun at Checkpoints.” MintPress News, October 5. https://www.mintpressnews.com/israel-smart-shooter-palestinians-lab-rats-ai-powered-gun/282129/.

Clarno, Andy. 2017. Neoliberal Apartheid: Palestine/Israel and South Africa after 1994. University of Chicago Press. https://doi.org/10.7208/chicago/9780226430126.001.0001.

Clarno, Andy. 2024. “Israel’s Lavender Kill List: A Joint Imperial Production.” Spectre Journal 5 (10). https://doi.org/10.63478/LS2N6V2D.

Cogan, Yaniv, and Jeremy Scahill. 2024. “The Israeli-American Businessman Pitching a $200 Million Plan to Deploy Mercenaries to Gaza.” Drop Site, October 21. https://www.dropsitenews.com/p/mercenary-deliver-humanitarian-aid-gaza.

Daher-Nashif, Suhad. 2021. “Colonial Management of Death: To Be or Not to Be Dead in Palestine.” Current Sociology 69 (7): 945–۶۲. https://doi.org/10.1177/0011392120948923.

Deprez, Miriam. 2023. “Visual Necropolitics and Visual Violence: Theorizing Death, Sight, and Sovereign Control of Palestine.” International Political Sociology 17 (3): olad016. https://doi.org/10.1093/ips/olad016.

Diehl, Caleb, and Joseph Federman. 2024. “A Look at How Settlements Have Grown in the West Bank over the Years.” AP News, July 5. https://apnews.com/a-look-at-how-settlements-have-grown-in-the-west-bank-over-the-years-0000019079d8d0f6a3da79dcbd0a0000.

Dowling, Paddy. 2023. “Dirty Secret of Israel’s Weapons Exports: They’re Tested on Palestinians.” Al Jazeera, November 17. https://www.aljazeera.com/features/2023/11/17/israels-weapons-industry-is-the-gaza-war-its-latest-test-lab.

Dwoskin, Elizabeth. 2021. “Israel Escalates Surveillance of Palestinians with Facial Recognition Program in West Bank.” The Washington Post, November 8. https://www.washingtonpost.com/world/middle_east/israel-palestinians-surveillance-facial-recognition/2021/11/05/3787bf42-26b2-11ec-8739-5cb6aba30a30_story.html.

Dwoskin, Elizabeth. 2024. “Israel Built an ‘AI Factory’ for War. It Unleashed It in Gaza.” The Washington Post, December 29. https://www.washingtonpost.com/technology/2024/12/29/ai-israel-war-gaza-idf/.

Fatafta, Marwa. 2023. “Apartheid Tech: Biometric ID and Surveillance in the Occupied West Bank.” In Resisting Borders and Technologies of Violence, edited by Mizue Aizeki, Matt Mahmoudi, and Coline Schupfer. Haymarket Books.

Fatafta, Marwa, and Daniel Leufer. 2024. “Artificial Genocidal Intelligence: How Israel Is Automating Human Rights Abuses and War Crimes.” AccessNow. https://www.accessnow.org/publication/artificial-genocidal-intelligence-israel-gaza/.

Frankel, Julia, and Sam Mednick. 2025. “Takeaways from AP’s Report into Claims of Excessive Force by American Contractors at Gaza Aid Sites.” AP News, July 2. https://apnews.com/article/israel-military-gaza-ghf-aid-un-3c1bef17093a2a3eeda0764c220b857b.

Frantzman, Seth J. 2019. “Israel’s Carmel Program: Envisioning Armored Vehicles of the Future.” C4ISRNET, August 5. https://www.c4isrnet.com/artificial-intelligence/2019/08/05/israels-carmel-program-envisioning-armored-vehicles-of-the-future/.

Frantzman, Seth J. 2020. “Israel Finds an AI System to Help Fight in Cities.” C4ISRNET, February 5. https://www.c4isrnet.com/battlefield-tech/2020/02/05/israel-finds-an-ai-system-to-help-fight-in-cities/.

Frantzman, Seth J. 2021. “New AI System Fills Rifle Sights with Extensive, Easy-to-Digest Info.” C4ISRNET, September 7. https://www.c4isrnet.com/artificial-intelligence/2021/09/07/new-ai-system-fills-rifle-sights-with-extensive-easy-to-digest-info/.

Frantzman, Seth J. 2022. “Israel Unveils Artificial Intelligence Strategy for Armed Forces.” DefenseNews, February 11. https://www.defensenews.com/artificial-intelligence/2022/02/11/israel-unveils-artificial-intelligence-strategy-for-armed-forces/.

Frantzman, Seth J., and Kelsey D. Atherton. 2019. “Israel’s Rafael Integrates Artificial Intelligence into Spice Bombs.” C4ISRNET, June 17. https://www.c4isrnet.com/artificial-intelligence/2019/06/17/israels-rafael-integrates-artificial-intelligence-into-spice-bombs/.

Frenkel, Sheera. 2024. “Israel Deploys Expansive Facial Recognition Program in Gaza.” The New York Times, March 27. https://www.nytimes.com/2024/03/27/technology/israel-facial-recognition-gaza.html.

Giovannetti, Megan. 2019. “‘Battle-Proven:’ Weapons Expo Shows One Way Israel Profits from Occupation.” The Progressive Magazine, June 10. https://progressive.org/latest/weapons-expo-israel-profits-occupation-giovannetti-190610/.

Goodfriend, Sophia. 2023a. “What the Rise of Drone Warfare Means for Palestinians.” Foreign Policy, January 20. https://foreignpolicy.com/2023/01/20/israel-palestine-west-bank-attack-surveillance-drones-far-right-settlers/.

Goodfriend, Sophia. 2023b. “Algorithmic State Violence: Automated Surveillance and Palestinian Dispossession in Hebron’s Old City.” International Journal of Middle East Studies 55 (۳): ۴۶۱–۷۸. https://doi.org/10.1017/S0020743823000879.

Gray, Catriona. 2021. “Data Dispossession.” The Sociological Review Magazine, May. https://doi.org/10.51428/tsr.ilzc1791.

Halper, Jeff. 2015. War against the People: Israel, the Palestinians and Global Pacification. Pluto Press.

Halper, Jeff. 2023. “Global Palestine: Exporting Israel’s Regime of Population Control.” In Resisting Borders and Technologies of Violence, edited by Mizue Aizeki, Matt Mahmoudi, and Coline Schupfer. Haymarket Books.

Hanbali, Layth, Edwin Jit Leung Kwong, Amy Neilson, James Smith, Sali Hafez, and Rasha Khoury. 2024. “Israeli Necropolitics and the Pursuit of Health Justice in Palestine.” BMJ Global Health 9 (۲): e014942. https://doi.org/10.1136/bmjgh-2023-014942.

Hardigan, Richard. 2024. “Polls Show Broad Support in Israel for Gaza’s Destruction and Starvation.” Truthout, February 10. https://truthout.org/articles/polls-show-broad-support-in-israel-for-gazas-destruction-and-starvation/.

Hever, Shir. 2023. “Israel Is Already Weaponizing AI — But Not in the Ways It Claims to Be.” Mondoweiss, July 1. https://mondoweiss.net/2023/07/ai-in-service-of-ia-artificial-intelligence-can-be-used-for-legitimizing-israeli-apartheid/.

Hil, Richard, and Gideon Polya. 2025. “Skewering History: The Odious Politics of Counting Gaza’s Dead.” Arena, July 11. https://arena.org.au/politics-of-counting-gazas-dead/.

Horowitz, Adam. 2011. “New Resource Tracks and Analyzes Israeli Arms Exports.” Mondoweiss, February 27. https://mondoweiss.net/2011/02/new-resource-tracks-and-analyzes-israeli-arms-exports/.

Jenkins, Destin, and Justin Leroy. 2021. “Introduction: The Old History of Capitalism.” In Histories of Racial Capitalism, edited by Justin Leroy and Destin Jenkins, 1–۲۶. Columbia University Press. https://doi.org/10.7312/jenk19074-002.

Kennard, Matt. 2016. “The Cruel Experiments of Israel’s Arms Industry.” Pulitzer Center, December 28. https://pulitzercenter.org/stories/cruel-experiments-israels-arms-industry.

Khatib, Rasha, Martin McKee, and Salim Yusuf. 2024. “Counting the Dead in Gaza: Difficult but Essential.” The Lancet 404 (۱۰۴۴۹): ۲۳۷–۳۸. https://doi.org/10.1016/S0140-6736(24)01169-3.

Khlaaf, Heidy, Sarah Myers West, and Meredith Whittaker. 2024. “Mind the Gap: Foundation Models and the Covert Proliferation of Military Intelligence, Surveillance, and Targeting.” arXiv. http://arxiv.org/abs/2410.14831.

Kumon, Takeshi. 2024. “Israeli Startups Hope to Export Battle-Tested AI Military Tech.” Nikkei, March 30. https://web.archive.org/web/20250301012557/https://asia.nikkei.com/Politics/Israel-Hamas-war/Israeli-startups-hope-to-export-battle-tested-AI-military-tech.

Loewenstein, Antony. 2023. The Palestine Laboratory: How Israel Exports the Technology of Occupation around the World. First published. Verso Books.

Loewenstein, Antony. 2025. “Israel’s Use of AI in Gaza Is a Terrifying Model Coming to a Country near You.” Middle East Eye, January 28. https://www.middleeasteye.net/opinion/israel-use-ai-gaza-terrifying-model-coming-country-near-you.

Masarwa, Lubna. 2021. “Israel Can Monitor Every Telephone Call in West Bank and Gaza, Says Intelligence Source.” Middle East Eye, November 15. https://www.middleeasteye.net/news/israel-can-monitor-every-telephone-call-west-bank-and-gaza-intelligence-source.

Mbembe, Achille. 2003. “Necropolitics.” Public Culture 15 (۱): ۱۱–۴۰. https://doi.org/10.1215/08992363-15-1-11.

Mbembe, Achille. 2019. Necropolitics. Duke University Press. https://doi.org/10.1215/9781478007227.

McQuillan, Dan. 2022. Resisting AI: An Anti-Fascist Approach to Artificial Intelligence. Bristol University Press.

Northam, Jackie. 2014. “With Homegrown Technology, Israel Becomes Leading Arms Exporter.” NPR, August 29. https://www.npr.org/sections/parallels/2014/08/29/344030354/with-home-grown-technology-israel-becomes-leading-arms-exporter.

Office of the United Nations High Commissioner for Human Rights. 2024. “State of Palestine: Israeli Settlements in the Occupied Palestinian Territory, Including East Jerusalem, and in the Occupied Syrian Golan.” https://www.ohchr.org/sites/default/files/2024-03/Palestine-March2024.pdf.

Robins-Early, Nick. 2024a. “How Israel Uses Facial-Recognition Systems in Gaza and Beyond.” The Guardian, April 19. https://www.theguardian.com/technology/2024/apr/19/idf-facial-recognition-surveillance-palestinians.

Robins-Early, Nick. 2024b. “AI’s ‘Oppenheimer Moment’: Autonomous Weapons Enter the Battlefield.” The Guardian, July 14. https://www.theguardian.com/technology/article/2024/jul/14/ais-oppenheimer-moment-autonomous-weapons-enter-the-battlefield.

Rusert, Britt. 2019. “Naturalizing Coercion: The Tuskegee Experiments and the Laboratory Life of the Plantation.” In Captivating Technology, edited by Ruha Benjamin, 25–۴۹. Duke University Press. https://doi.org/10.1215/9781478004493-003.

Skyline International for Human Rights. 2025. “Biometrics-for-Food: A Dangerous Shift from Humanitarian Relief to Coercive Surveillance.” Skyline International for Human Rights (blog), May 15. https://skylineforhuman.org/en/news/details/819/biometrics-for-food-a-dangerous-shift-from-humanitarian-relief-to-coercive-surveillance.

Snaith, Ben. 2023. “What Do We Mean by ‘without Data, There Is No AI’?” Short paper. Open Data Institute. https://theodi.cdn.ngo/media/documents/20231221_-_Data-centric_AI_Short_Paper_-_What_do_we_mean_by_without_data_there_3AEHdDW.pdf.

Solon, Olivia. 2019. “Why Did Microsoft Fund an Israeli Firm That Surveils West Bank Palestinians?” NBC News, October 28. https://www.nbcnews.com/news/all/why-did-microsoft-fund-israeli-firm-surveils-west-bank-palestinians-n1072116.

Veracini, Lorenzo. 2011. “Introducing: Settler Colonial Studies.” Settler Colonial Studies 1 (۱): ۱–۱۲. https://doi.org/10.1080/2201473X.2011.10648799.

Wolfe, Patrick. 2001. “Land, Labor, and Difference: Elementary Structures of Race.” The American Historical Review 106 (۳): ۸۶۶. https://doi.org/10.2307/2692330.

Wolfe, Patrick. 2006. “Settler Colonialism and the Elimination of the Native.” Journal of Genocide Research 8 (۴): ۳۸۷–۴۰۹. https://doi.org/10.1080/14623520601056240.

به اشتراک بگذارید:

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *