
چکیده
از اکتبر ۲۰۲۳، ساکنان نوار غزه در معرض سامانههای تولید هدف مبتنی بر هوش مصنوعی از سوی اسرائیل قرار گرفتهاند. این مقاله با اتکا به درکی از پروژهی استعمارِ مهاجرنشینانهی اسرائیل، اقتصاد سرمایهداری نژادی آن، و صورتبندی سرزمینهای اشغالی فلسطین بهمثابه جغرافیاهای زندانوار، به بررسی استقرار این فناوریها میپردازد. مقاله با استناد به کار اندی کلارنو، که نشان میدهد کاهش وابستگی اسرائیل به نیروی کار فلسطینی آنها را از چرخهی بهرهکشی اقتصادی خارج کرده است، استدلال میکند که فلسطینیان برای هدفی دیگر ارزشمندند: بهمثابه میدان آزمایش. در بیش از پنجاه سال گذشته، فلسطینیان به آزمودنیهایی برای توسعهی فناوریهای نظارتی و جنگی بدل شدهاند؛ همان چیزی که آنتونی لوونشتاین «آزمایشگاه فلسطین» مینامد. هوش مصنوعی پارادایمی دوگانه ایجاد میکند که در آن، هم زندگی و هم مرگ فلسطینیان به عرصههایی برای سلب مالکیت دادهای تبدیل میشود. این دوگانگی ایجاب میکند که آنها زنده نگه داشته شوند تا دادههای دائماً بهروز برای سامانههای مرگبار الگوریتمی تولید کنند، در حالی که مرگشان نیز دادههایی برای بهبود و بازاریابی این سامانهها بهعنوان «میدانآزموده» فراهم میکند. مقاله این وضعیت را «جهان ـ مرگ الگوریتمی» مینامد، مفهومی برگرفته از «نکروپولیتیک» [مرگسیاست] اشیل امبمبه. در نهایت، استدلال میشود که اسرائیل با صدور جهانی فناوریهای مرگبار هوش مصنوعی، الگویی از دورریختگیِ مردم تحت تبعیض نژادی را نیز صادر میکند.
«رویههایی که بر پیکرِ در اسارت اعمال میشوند، ابژهسازیِ تام را حدگذاری میکنند، چرا که کلِ جامعهی در اسارت به آزمایشگاهی زنده بدل میشود.»
– هورتنس جی. اسپیلرز،[۱] «بچهی مامان، شاید بابا: کتاب دستور زبان آمریکایی»[۲]
«کارخانهای برای کشتار جمعی»[۳] عنوان تحقیقی بود که این موضوع را به عرصهی عمومی کشاند: استفادهی اسرائیل از سامانهی تولید هدف مبتنی بر هوش مصنوعی برای شناسایی شمار بیسابقهای از اهداف جهت بمباران در غزه (Abraham 2023). اگرچه این سامانه اکنون توجه تازهای برانگیخته است، اما باید آن را در امتداد تاریخی چنددههای از کشتار فلسطینیان به دست نیروهای اشغالگر و مهاجرنشینان اسرائیلی فهمید؛ ازجمله کشتارهایی که بهمیانجی فناوریهای جنگیِ نوین انجام شدهاند.
پژوهشگران مطالعات استعمار مهاجرنشینی انه[۴] میان استعمار مهاجرنشینانه و استعمار امتیازطلبانه[۵] تمایز قائل میشوند، که بخشی از آن به نوع نسبت میان استعمارگران و استعمارشدگان بازمیگردد. در استعمار امتیازطلبانه، سوژهی استعماری، برخلاف استعمار مهاجرنشینانه، برای تأمین نیروی کار کارکرد دارد. پروژههای حذفگرای رژیمهای استعمار مهاجرنشینانه – که هدفشان ریشهکنکردن یا اخراج جمعیتهای بومی است، نه بهکارگیری آنها بهعنوان نیروی کار – کشاکشی میان منطق حذف و منطق بهرهکشی در درون سرمایهداری نژادی ایجاد میکنند.
اندی کلارنو[۶]، در کتاب آپارتاید نولیبرال[۷]، این تنش را در مقایسهی تاریخ معاصر سرمایهداری نژادی در رژیمهای آپارتاید آفریقای جنوبی و اسرائیل/فلسطین صورتبندی میکند. در آفریقای جنوبی پیش از ۱۹۹۴، استعمار اروپایی مستلزم جابهجایی خشونتآمیز و طرد جمعیت سیاهپوست بود. این دینامیک زمانی تغییر کرد که محیطهای کار متعلق به سفیدپوستان به نیروی کار کمدستمزد کارگران سیاهپوست وابسته شدند و بدینترتیب از حذف کامل آنها جلوگیری شد. در حالیکه حذف در آفریقای جنوبی دوران آپارتاید، زمینهساز بهرهکشی شد، دههها برنامهریزی اقتصادی متمرکز به این معنا بود که بهرهکشی از فلسطینیان کارکردی مرکزی در سرمایهداری نژادی اسرائیل نداشت. بازسازی نولیبرالی اقتصاد اسرائیل از اواخر دههی ۱۹۸۰ در پی کاهش وابستگی آن به نیروی کار فلسطینی بود؛ امری که فلسطینیان را در برابر شیوههای حذفگرای رژیم اسرائیل آسیبپذیرتر ساخت (Clarno 2017).
با این حال، منطق حذف در استعمار مهاجرنشینانه بهتنهایی نیروهای محرک فرودستسازی فلسطینیان توسط رژیم اسرائیل را بهطور کامل تبیین نمیکند. مقالهی حاضر استدلال میکند که اقتصاد سرمایهداری نژادی اسرائیل از طریق منطقی دیگر عمل میکند: منطق آزمایشگری، که ذاتاً به جغرافیاهای زندانوارِ نژادیشده و تاریخچههای آزمودن فناوریهای نوین بر روی جمعیتهای انسانیِ در اسارت گره خورده است. همانگونه که آنتونی لوونشتاین[۸] در کتاب آزمایشگاه فلسطین[۹] نشان داده است، اسارت فلسطینیان در قالب ابژهسازی آنها برای آزمایشگری تحقق مییابد. این وضعیت به نوبهی خود شکل تازهای از کالاییسازی را برای سوداگران جنگی اسرائیل فراهم میآورد؛ سوداگرانی که با بستهبندی سامانههای مبتنی بر هوش مصنوعی بهعنوان «میدانآزموده» (Loewenstein 2023) در پی کسب مزیت در بازار هستند. به این ترتیب، ابژهسازی فلسطینیان به ابزاری برای افزایش ارزش کالاها بدل میشود.
با توجه به نیاز هوش مصنوعی به داده، این منطق آزمایشگری مستلزم چرخههای مداوم و تکرارشوندهی سلب مالکیت دادهای است که در دو جبهه رخ میدهد. از یک سو، دادههای زیستسنجشی، شخصی و سایر دادههای فلسطینیانِ زنده، در شرایطی همراه با اجبار یا پنهانکاری، هنگام عبور از ایستهای بازرسی نظامی در کرانهی باختری یا فرار از راهروهای تخلیه در غزه، بهطور مداوم گردآوری میشوند. از سوی دیگر، همانگونه که دادههای آنان برای آموزش و تغذیهی همان فناوریهایی به کار میرود که بر آنها نظارت، هدفگیری و کشتار میکنند، واقعیتها و شرایط هدفگیری و مرگشان نیز به محلی برای تولید داده بدل میشود. این داده سپس برای افزایش مرگباری سامانههای هوش مصنوعی به کار میرود؛ سامانههایی که دیگران را هدفگذاری و کشتار میکنند.
کاربرد اخیر سامانههای تولید هدف الگوریتمی در غزه نشان میدهد که نیازهای دادهای سامانههای مرگبار هوش مصنوعی چگونه مستلزم آن است که فلسطینیان هم زنده باشند و هم بمیرند. این خصلت دوگانه، فلسطینیان را در وضعیت نوعی «جهان ـ مرگِ الگوریتمی» قرار میدهد – اصطلاحی برگرفته از اشیل امبمبه[۱۰] برای توصیف جغرافیاهایی که در آنها جمعیتهایی که در معرض شرایط مرگسیاستِ خشونت افراطی قرار دارند، عملاً به مردگانی زنده بدل میشوند (Mbembe 2003, 40). در این جهان ـ مرگِ الگوریتمی، فلسطینیان در وضعیت زیستنِ محکوم نگه داشته میشوند؛ همواره در معرض تهدید هدفگیری، و همزمان دستخوش سلب مالکیت دادهای که برای افزایش مرگباری ابزارهایی ضروری است که در نهایت مرگشان را رقم میزنند. این ابزارها سپس توسط شرکتهای اسرائیلی بهبود یافته و به مشتریانی در سراسر جهان فروخته میشوند. اما اسرائیل فراتر از صرفِ فروش محصولات، خودِ ایدهی دورریختگی را بهمثابه شیوهای برای مدیریت جمعیتهای ناخواسته و بهعنوان فرصتی بازارمند برای سوداگری جنگی صادر میکند.
این مقاله به شرح زیر سازماندهی شده است. بخش اول به بررسی رابطهی استعمار مهاجرنشینانه با نیروی کار میپردازد تا تفاوت میان منطق حذف و منطق بهرهکشی را روشن کند و نحوهی اعمال سلطهی اسرائیل بر فلسطینیان را توضیح دهد. بخش دوم استدلال میکند که منطق آزمایشگری محرک اقتصاد سرمایهداری نژادی اسرائیل است. بخش سوم نشان میدهد که این منطق آزمایشگری، هنگامیکه در خدمت سامانههای الگوریتمی به کار گرفته میشود، مستلزم سلب مالکیت دادهای در دو جبهه است: هم در زندگی و هم در مرگ، بدنهای فلسطینیان بهعنوان منابع داده برای فناوریهای مرگبار هوش مصنوعی برساخته میشوند. بخش چهارم توضیح میدهد که چگونه این نیاز دوگانه به داده، فلسطینیان را بهطور جمعی در وضعیت نوعی «جهان ـ مرگِ الگوریتمی» قرار میدهد و دورریختگیِ مرگسیاست آنها را تشدید میکند. این مقاله در پایان، به بررسی الگویی که جهانهای مرگِ الگوریتمی تثبیت میکنند و امکان بازتولید آنها در زمینههای دیگر میپردازد.
۱. حذف در برابر بهرهکشی در استعمار مهاجرنشین
سرمایهداری نژادی طیف گستردهای از شیوههای تولید و انباشت سرمایه را در بر میگیرد که بر سلب مالکیت از جمعیتهای تحت تبعیض نژادی متکی هستند، از بردهداری و کار قراردادی اجباری گرفته تا استعمار. دستین جنکینز[۱۱] و جاستین لیروی[۱۲] در مقدمهی کتاب تاریخهای سرمایهداری نژادی[۱۳] به نمونههایی از سراسر جهان – از جمله در هند، فیلیپین و هاوایی – اشاره میکنند که در آنها ساختارهای نظامی و اداری استعماری برای انباشت سرمایهی نژادی حیاتی بودند (Jenkins and Leroy 2021,16–۱۷). رژیمهای استعماری، افزون بر استخراج منابع، جمعیتهای مستعمرهشده را برای نیروی کارشان جذب و کنترل میکردند.
با این حال، ممکن است چنین به نظر برسد که رژیمهای استعمار مهاجرنشینانه با نظامهای سرمایهداری نژادی و الزامات آنها برای بهرهکشی از نیروی کار ناسازگار باشند. پژوهشگران مطالعات استعمار مهاجرنشینانه میان استعمار مهاجرنشینانه و استعمار امتیازطلبانه تمایز میگذارند، تمایزی که بخشی از آن بر رابطهی هر یک با نیروی کار استوار است (Wolfe 2001, 868). تفاوت میان استعمار امتیازطلبانه و استعمار مهاجرنشینانه، تفاوت میان «تقاضا برای نیروی کار» و «تقاضا برای ترککردن» است (Veracini 2011,4). در حالی که «ترککردن» میتوانست از طریق راههای گوناگونی از جمله اخراج، کشتار جمعی یا همسانسازی اجباری جمعیتهای بومی تحقق یابد، وجه مشترک استعمار مهاجرنشینانه این است که مستلزم پاکسازی نظاممند مردمان بومی از زمین است تا مهاجرنشینان جایگزین آنها شوند. در مقالهای بنیادین در مطالعات استعمار مهاجرنشینانه، پاتریک وولف[۱۴] این را «منطق حذف»[۱۵] مینامد و «حذف بومی»[۱۶] را بهعنوان ویژگی مرکزی در فرایند ایجاد جامعهای مهاجرنشین بر زمینهای مصادرهشده صورتبندی میکند (Wolfe 2006, 387). در مقابل، استعمار امتیازطلبانه با «عزمی برای بهرهکشی» از مردمان بومی بهمنظور نیروی کارشان استمرار مییابد (Veracini 2011,2).
در حالی که به نظر میرسد دوگانهی ظاهری میان بهرهکشی و حذف در ادبیات مطالعات استعمار مهاجرنشینانه تثبیت شده باشد، این دوگانه هنگام بررسی مورد آفریقای جنوبیِ آپارتاید مسئلهدار میشود. اندی کلارنو در کتاب آپارتاید نولیبرال[۱۷] مطالعهای تطبیقی از سرمایهداری نژادی در آفریقای جنوبیِ آپارتاید و فلسطین/اسرائیل ارائه میدهد که بر پایهی یک دهه پژوهش در هر دو زمینه استوار است. از سال ۱۶۵۲ به بعد، اسکان اروپایی در آفریقای جنوبی بر شیوههای حذفی تکیه داشت که آفریقاییها را بهگونهای خشونتآمیز جابهجا میکرد تا زمینهایشان تصرف شود (Clarno 2017,25–۲۶). اما با فرارسیدن اواخر دههی ۱۸۰۰، اروپاییان در آفریقای جنوبی «در پی بهرهکشی از جمعیت آفریقایی بودند، نه صرفاً اخراج آنها» (Clarno 2017,6). این دینامیک پس از تشکیل اتحادیهی آفریقای جنوبی در سال ۱۹۱۰ تشدید شد و زمینهساز دورهای از صنعتیسازی شد که معادن، کارخانهها و مزارع متعلق به سفیدپوستان را به بهرهکشی از کارگران سیاهپوست وابسته ساخت. این بدان معنا نیست که جمعیت سیاهپوست آفریقای جنوبی دیگر طرد یا «بیزمینیِ پایدار» را تجربه نمیکرد (Clarno 2017, 35). با این حال، کلارنو استدلال میکند که در قیاس با قدرت حذفی اسرائیل که به سوی نابودی فلسطینیان جهتگیری شده است، «تقاضا برای نیروی کار سیاهِ کمدستمزد از حذف کامل جمعیت سیاهپوست جلوگیری کرد» (Clarno 2017, 197, 198).
کلارنو بهجای آنکه حذف و بهرهکشی را بهمثابه منطقهایی متقابل و متضاد در نظر گیرد، بر ضرورت چارچوب تاریخی دقیقتر و ظریفتری تأکید میورزد که تحول در «اشکال متغیر» استعمار مهاجرنشینانه و سرمایهداری نژادی نولیبرال را توضیح دهد (Clarno 2017, 25). در مورد آفریقای جنوبیِ دوران آپارتاید، آنچه او نشان میدهد این است که فرایندی که در مقطعی در پی حذف جمعیت سیاهپوست بود، به فرایندی بدل شد که عمدتاً حول محور بهرهکشی از نیروی کار آنها سازمان مییافت.
اما در مورد فلسطین، برعکس، منطق بهرهکشی – که بهمثابه استخراج ارزش اضافی از طریق فرایند تولید تعریف میشود – نقشی رو به کاهش در اقتصاد نژادی-سرمایهداری اسرائیل ایفا کرد. کلارنو برای تبیین شدت نسبی خشونت حذفیای که بر فلسطینیان مستعمرهشده اعمال شده است، توضیح میدهد که «تفاوت اصلی میان فلسطین/اسرائیل امروز و آفریقای جنوبی پیش از ۱۹۹۴، مسئلهی نیروی کار است» (Clarno 2017, 197–۹۸). از دههی ۱۹۲۰، جنبش صهیونیستی در پی تأسیس دولتی بود که مشاغل را برای مهاجرنشینان یهودی محفوظ نگه دارد و بدینترتیب وابستگی خود به کارگران فلسطینی را کاهش دهد (Clarno 2017,25–۲۶). پس از تأسیس دولت اسرائیل در ۱۹۴۸، جنبهی حذفی این پروژهی استعمار مهاجرنشینانه، و نیز ظرفیتهای سیاسی و نظامی لازم برای اجرای آن، تنها تشدید شده است.
از سال ۱۹۴۸ به بعد، فلسطینیان نیروی کار کمدستمزد را در اختیار اقتصاد اسرائیل قرار میدادند. پس از اشغال کرانهی باختری و نوار غزه توسط اسرائیل در سال ۱۹۶۷، فلسطینیان ساکن در سرزمینهای اشغالی در اقتصاد اسرائیل ادغام شدند و دستمزدی حتی پایینتر از فلسطینیان ۱۹۴۸ دریافت میکردند. تا اواسط دههی ۱۹۸۰، %۴۰ از کارگران فلسطینی در داخل اسرائیل اشتغال داشتند که عمدتاً در بخشهای کشاورزی و ساختمان فعالیت میکردند (Clarno 2017, 30). اما از اواخر دههی ۱۹۸۰ و در طول دهههای ۱۹۹۰ و پس از آن، نولیبرالیشدن اقتصاد اسرائیل بهگونهای عمل کرد که نیروی کار فلسطینی را بهتدریج غیرضروری ساخت. اسرائیل به سمت اقتصادی مبتنی بر فناوری پیشرفته (high-tech) حرکت کرد و تقاضای خود را برای نیروی کار صنعتی و کشاورزی کاهش داد، و موافقتنامههای تجارت آزاد به آن امکان داد که تولید را به کشورهای همسایه منتقل کند (Clarno 2017, 40). اسرائیل همچنین نظام محدودکنندهی مجوز کار برای فلسطینیان برقرار کرد و همزمان شمار زیادی از کارگران خارجی را وارد کرد تا عدماتکای خود به کارگران فلسطینی را تثبیت کند (Bartram 1998, 303; Berda 2018). این دگرگونی در اقتصاد نژادی-سرمایهداری اسرائیل به این معنا بود که فلسطینیان در برابر کشتار و جابهجایی به دست دولت اسرائیل و مهاجرنشینان اسرائیلی آسیبپذیرتر شدند و بدینترتیب راه برای گسترش مهاجرسازی در سراسر سرزمینهای اشغالی فلسطین هموار شد (Diehl and Federman 2024؛ دفتر کمیساریای عالی حقوق بشر سازمان ملل متحد ۲۰۲۴). زیرا به قول کلارنو: «وقتی یک دولت استعماری دیگر برای نیروی کار مستعمرهشدگان ارزشی قائل نباشد، موانع ساختاری اندکی در برابر حذف وجود خواهد داشت» (Clarno 2017, 198). پرسش اینجاست: اگر حذف، پروژهی استعمار مهاجرنشینانهی اسرائیل را به حرکت درمیآورد، اما بهرهکشی برای اقتصاد آن غیرضروری شده است، چه منطقی بهتر میتواند شیوهی تثبیت سرمایهداری نژادی در اسرائیل را توضیح دهد؟
۲. آزمایشگری و فلسطینیان بهمثابه آزمودنیها
پس از طرح مسألهی دوگانهی ظاهری میان حذف و بهرهکشی، و این که نشان دادیم که بهرهکشی بهتدریج از مرکزیت اقتصاد نژاد-سرمایهداری اسرائیل کاسته شده است، مطالعات جغرافیای زندانوار چارچوبی فراهم میآورند که میتواند به تعریف دقیقتری از چگونگی (بی)ارزشسازی فلسطینیان از سوی اسرائیل کمک کند. در واقع، سرمایهداری نژادی اسرائیل فلسطینیان را برای هدفی دیگر سودمند میانگارد: آزمایشگری.
جمعیتهای تحت تبعیض نژادی پیشینهای طولانی در قرار گرفتن در معرض آزمایشگری در محدودههای جغرافیایی زندانوار دارند؛ جغرافیاهایی که بریت راسرت،[۱۸] پژوهشگر، آنها را بهمثابه فضاهای مهار اجباری تعریف میکند که به مکانهایی برای آزمایشگری انسانی بدل میشوند (Rusert 2019,27–۲۸). راسرت از آزمایشهای پزشکی غیراخلاقی انجامشده بر زنان برده گرفته تا آزمایشهای سفلیس توسکیگی، تاریخچهی آزمایشگری انسانی در ایالات متحده را در مزارع، اردوگاههای آوارگان، زندانها و دیگر فضاهای زندانوار دنبال میکند (Rusert 2019, 40). در منظری جهانیتر، اشیل امبمبه، نظریهپرداز انتقادی، به این نکته اشاره میکند که چگونه اختراعاتی چون عقیمسازی اجباری «نخستین زمینهای آزمایشی خود را در جهان استعماری یافتند» (Mbembe 2003, 23).
استعمار مهاجرنشینانهی اسرائیل نیز از این قاعده مستثنی نیست. آنتونی لوونشتاین، روزنامهنگار تحقیقی، در اثری با نامی گویا از اصطلاح «آزمایشگاه فلسطین» استفاده میکند تا نشان دهد که چگونه اسرائیل به فلسطین بهعنوان زمین آزمایشی برای فناوریهای تسلیحاتی و نظارتی متکی است – فناوریهایی که سپس به کشورهای دیگر صادر میشوند (Loewenstein 2023). به گفتهی لوونشتاین: «فلسطین کارگاه اسرائیل است؛ جایی که یک ملت اشغالگر در همسایگی خود، میلیونها انسان بهزیرکشیدهشده را بهمثابه آزمایشگاهی برای دقیقترین و موفقترین روشهای سلطه به کار میگیرد»، از جمله «موشکها، سامانههای دفاع هوایی، موشکهای بالستیک، سلاحهای سایبری و رادار» (Loewenstein 2023,17–۱۸).
منافع اسرائیل در حفظ جمعیتی اشغالی بهمثابه منبعی برای آزمایشگری از نظر اقتصادی قابل توجیه است. جف هالپر،[۱۹] پژوهشگر، این ادعا را که اشغال فلسطین بار مالی بر دوش اسرائیل تحمیل میکند رد میکند و تأکید دارد که بدون آن، اسرائیل قادر به رقابت در بازارهای بینالمللی تسلیحات و امنیتیسازی نخواهد بود (Halper 2015). دلیل این امر آن است که مزیت رقابتی اسرائیل در این نکته نهفته است که فناوریهایی را صادر میکند که «میدانآزموده» و «در نبرد اثباتشده» هستند؛ عباراتی که شرکتهای تسلیحاتی و امنیت سایبری اسرائیل هنگام معرفی محصولات خود در نمایشگاههای تسلیحاتی به مشتریان بالقوه از سراسر جهان بهطور گسترده به کار میبرند (Giovannetti 2019). کهنهسربازان ارتش اسرائیل – که اغلب پس از پایان خدمت خود در صنایع تسلیحاتی مشغول به کار میشوند – این واقعیت را، که این سلاحها بر فلسطینیان بهطور دقیق تنظیم و بهینهسازی شدهاند (fine-tuned)، بهعنوان یک مزیت بازاریابی و نقطهی فروش تبلیغ میکنند. همانگونه که نوو گوردون،[۲۰] استاد دانشگاه، بیان میکند: «آنها میتوانند بگویند: “هی، این توسط ارتش اسرائیل استفاده شده است، پس باید خوب باشد.” و این به بازاریابی این کالاها کمک میکند» (Kennard 2016) در واقع، سیبات (SIBAT) – سازمان دولتی مسئول بازاریابی و فروش سامانهها و تجهیزات مازاد ارتش اسرائیل – بر «مزیت منحصربهفرد» اسرائیل تأکید میکند؛ مزیتی که بر اساس آن فناوریهای کنترلیِ صادراتی آن نه در آزمایشگاههای نظامی، بلکه در «آزمایشگاه واقعیِ منازعهی کنترلشده» در سرزمینهای اشغالی شکل میگیرند (Halper 2023, 97). این سلاحها و فناوریها نهتنها در شرایط واقعی میدان مورد آزمایش قرار میگیرند، بلکه با توجه به فاصلههای زمانی اندک میان کارزارهای نظامی اسرائیل، توسعه و بازتکرار (iteration) این سامانهها میتواند در چرخههایی بدون تأخیر زمانی (real-time) انجام شود.
حتی پیش از پذیرش گستردهی هوش مصنوعی، فناوریهای نظارتی و زندانوار که بر فلسطینیان بهکار گرفته و بهینهسازی شده بودند، توسط اسرائیل به کشورهای مختلف در سراسر جهان صادر میشدند. برای نمونه، نرمافزار پگاسوس که توسط شرکت اسرائیلی امنیت سایبری اناساو گروپ[۲۱] توسعه یافته و نخستینبار بر روی مدافعان حقوق بشر فلسطینی آزمایش شده بود، در دستکم ۴۵ کشور مورد استفاده قرار گرفته است (Buxbaum 2022). امکان آزمایش بر روی فلسطینیان همچنین به اسرائیل این قابلیت را داده است که به یکی از رهبران جهانی در حوزهی وسایل نقلیهی هوایی بدون سرنشین (پهپادها) تبدیل شود. از سال ۱۹۸۵، اسرائیل بزرگترین صادرکنندهی پهپاد در جهان بوده و ۶۰.۷ % از فروش جهانی را به خود اختصاص داده است (Arnett 2015). این فناوری که نخستینبار در دههی ۱۹۵۰ مورد استفاده قرار گرفت، از طریق چهار دهه بهکارگیری مداوم و بازتکرار در بستر اشغال فلسطین، با سرعتی شتابان توسعه یافته است (Horowitz 2011). علاوه بر پهپادها، دیگر نوآوریهای اسرائیل که بهطور گسترده صادر شدهاند شامل تجهیزات دید در شب، بمبهای نفوذکننده به سازههای بتنآرمه، و موشکهای ضدتانک است (Northam 2014). در سالهای اخیر نیز اسرائیل بهطور فزایندهای بر توسعهی هوش مصنوعی تکیه کرده است تا نقش خود را بهعنوان یکی از صادرکنندگان پیشروی جهانی فناوریهای نظارتی و تسلیحاتی تثبیت و تداوم بخشد.
۳. هوش مصنوعی و دو جبههی سلب مالکیت داده
سالهای اخیر شاهد پیشرفتهایی در حوزهی هوش مصنوعی بوده است و همزمان با آن، علاقهای فزاینده و جهشی در سرمایهگذاری بر سامانههای نظارتی و جنگی مبتنی بر هوش مصنوعی شکل گرفته است (Robins-Early 2024b). اسرائیل هوش مصنوعی را بهعنوان بخشی از استراتژی نظامی خود پذیرفته و ارزش آن را در تقویت قابلیتهای تسلیحاتی، از جمله پهپادها برای شلیک و بمباران اهداف، خودروهای زرهی برای حرکت خودمختار، سامانههای حسگر شبکهای برای ارائهی دادههای میدان نبرد بدون تأخیر زمانی به تیراندازان، تفنگهای مجهز به ریزرایانه برای پشتیبانی از نیروهای پیاده در «افزایش مرگباری»، و تقویت بسیاری از ابزارهای دیگر نظارت زیستسنجشی و تسلیحات خودمختار، تشخیص داد (Fatafta and Leufer 2024; Frantzman 2019, 2020, 2021, 2022; Goodfriend 2023a).
«هوش مصنوعی» اصطلاحی فراگیر و نسبتاً مبهم است که طیف گستردهای از فناوریها را دربر میگیرد؛ فناوریهایی که وجه مشترک آنها نیاز به داده است – چه برای آموزش مدلها جهت تشخیص الگوها یا انجام پیشبینی، چه برای آزمون و ارزیابی عملکرد مدلها، و چه برای اجرای کارکردهایی مانند بهینهسازی، پردازش یا خودکارسازی. به گفتهی مؤسسهی اوپن دیتا:[۲۲] «بدون داده، هوش مصنوعی وجود ندارد» (Snaith 2023). گذار از آموزش به آزمون و سپس اجرا، چندان یک فرایند خطی نیست، بلکه یک حلقهی بازخورد[۲۳] است: فرایندی پویا که در آن یک سامانهی هوش مصنوعی از خروجیهای خود بهعنوان ورودیهای جدید برای یادگیری و بهبود مستمر استفاده میکند.
در نظر گرفتن فلسطینیان بهمثابه سوژههای آزمایشی برای سامانههای هوش مصنوعی اسرائیل، مستلزم تلقی آنها بهعنوان بسترهایی برای گردآوری دادههای حیاتی است. هوش مصنوعی در مواجههی دقیقتر با فناوریهای مرگبار، نوعی دوگانگی را در این فرایند گردآوری داده وارد میکند: هم زندگی و هم مرگ فلسطینیان، برای سامانههایی که با داده آموزش دیده و با دادههای اسرائیلی در حوزهی جنگافروزی و زندانسازی تغذیه شدهاند، نقاط دادهای تولید میکنند.
۱.۳. زندگی فلسطینیان بهمثابه داده
برای درک اینکه چگونه زندگی فلسطینیان دادهای حیاتی برای توسعه و عملکرد سامانههای هوش مصنوعی تأمین میکند، باید شرایط گردآوری مداوم داده را که بر فلسطینیان تحمیل شده است بهطور کامل درک کرد. این شرایط موضوع بررسیهای بسیاری از روزنامهنگاران و سازمانهای حقوق بشری بوده است. در واقع، وضعیت ردیابی و نظارت بیوقفهای که فلسطینیان در آن زندگی میکنند، بهدرستی میتواند بهعنوان سلب مالکیت داده توصیف شود: فرایندی مستمر از استخراج دادههای شخصی و زیستسنجشی (Gray 2021).
برای نمونه، در کرانهی باختری، گزارشهای تحقیقی در سال ۲۰۱۹ نشان داد که استارتاپ اسرائیلی «انیویژن»[۲۴] با استفاده از بیش از ۱۱۵هزار دوربین – که مکان بسیاری از آنها مشخص نبود – بهطور مخفیانه فلسطینیان را در سراسر کرانهی باختری زیر نظر داشت. این سامانهی تشخیص چهره توسط انیویژن «غیرارادی» توصیف شد، چرا که فلسطینیان بدون رضایت یا ثبتنام، بهطور خودکار ردیابی، طبقهبندی و شناسایی میشوند (Solon 2019). انیویژن بههیچوجه تنها شرکتی نیست که چنین فناوریهای گردآوری دادهی زیستسنجشی را پیادهسازی میکند. «کورسایت»[۲۵] شرکت دیگری در زمینهی تشخیص چهره است که فناوریای را برای دوربینهای نصبشده بر بدن پلیس توسعه داده است؛ فناوریای که «میتوانست فوراً فردی را در میان جمعیت شناسایی کند، حتی اگر صورت او پوشیده باشد، و آن شخص را با عکسهایی از سالهای پیش مطابقت دهد» (Loewenstein 2023, 60). علاوه بر شرکتهای خصوصی، خود ارتش اسرائیل از شبکهی گستردهای از دوربینها، تلفنهای همراه و دیگر ابزارهای گردآوری داده برای مستندسازی فلسطینیان استفاده میکند. در سال ۲۰۲۱، گزارشی تحقیقی پایگاه دادهی عظیمی که ارتش اسرائیل از آن استفاده میکند، به نام «ولف پک»[۲۶] افشا کرد. این پایگاه داده شامل پروفایلهایی دربارهی تقریباً هر فلسطینی در کرانهی باختری است، از جمله تصاویر، اعضای خانواده و سابقهی خانوادگی، وضعیت تحصیلی، پلاک خودروها و موارد دیگر. (Dwoskin 2021). برای تغذیهی این پایگاه داده، سازمان حقوق بشری عفو بینالملل در سال ۲۰۲۳ وجود سامانهی پیشتر گزارشنشدهای به نام «رد ولف»[۲۷] را افشا کرد؛ سامانهای که ۱۰ تا ۱۵ دوربین را در ایستهای بازرسی نظامی در سراسر کرانهی باختری مستقر میکند تا تصاویر چهرهی فلسطینیان را بدون رضایت آنها اسکن و ثبت کند. علاوه بر اتکا به این شبکهی دوربینهای امنیتی، خود سربازان اسرائیلی نیز از سال ۲۰۲۰ از برنامهی تلفن هوشمندی به نام «بلو ولف»[۲۸] برای ثبت تصاویر فلسطینیان استفاده میکنند. به گفتهی گزارشها، سربازان در یک نظام بازیگونه تشویق میشدند رقابت کنند؛ نظامی که به افرادی که بیشترین عکس را ثبت میکردند پاداش میداد (Amnesty International 2023a). این سازوکار گستردهی ثبت چهره در تضاد با محکومیتها و فراخوانهای ممنوعیت نظارت مبتنی بر تشخیص چهره از سوی سازمانهای جامعهی مدنی در سراسر جهان قرار دارد؛ از جمله عفو بینالملل، دیدهبان حقوق بشر و بیش از ۱۷۰ نهاد دیگر (Amnesty International 2021).
در غزه، گردآوری داده بهطور سنتی از طریق شنود مکالمات تلفنی، پایش تصاویر پهپادها و ماهوارهها، و نفوذ به حسابهای رسانههای اجتماعی و زیرساختهای مخابراتی انجام میشد، و اسرائیل مدعی بود که قادر است هر مکالمهی تلفنی را رهگیری و ضبط کند (Masarwa 2021). از اکتبر ۲۰۲۳، گزارش شده است که اسرائیل همزمان با تهاجم زمینی خود به این منطقه، یک برنامهی جدید تشخیص چهرهی انبوه را به غزه گسترش داده است. سربازان اسرائیلی در امتداد همان راهروهای تخلیهای که از فلسطینیان میخواستند برای یافتن امنیت از آنها عبور کنند، ایستهای بازرسی مجهز به دوربینهای تشخیص چهره برپا کردند و افراد را در مسیر، بهصورت زیستسنجشی بررسی میکردند (Robins-Early 2024a). نیروهای نظامی اسرائیل با استفاده از ابزار سفارشی شرکت کورسایت و همچنین گوگل فوتوز Google Photos، در پی تهیهی یک «فهرست هدف» از افراد مظنون به فعالیتهای نظامی بودند. با وجود دقت ادعاشدهی این سامانه، مواردی از شناسایی نادرست گزارش شده است که در پی آن فلسطینیان بازداشت، بازجویی و مورد ضربوشتم قرار گرفتهاند (Frenkel 2024). طرحهای احتمالی اسرائیل برای ایجاد «جوامع حصارکشیشده» در غزه – که دسترسی فلسطینیان به کمکهای بشردوستانه را به پذیرش آزمونهای زیستسنجشی، از جمله تشخیص چهره، مشروط میکند – سلب مالکیت دادهای را بیش از پیش تثبیت خواهد کرد. گروههای حقوق بشری این سازوکار را بهعنوان یک مکانیسم «زیستسنجی در برابر غذا» و شکلی از نظارت اجباری توصیف کردهاند (Cogan and Scahill 2024; Frankel and Mednick 2025; Skyline International for Human Rights 2025). بهطور خلاصه، اگر فلسطینیان زنده نباشند – به مراکز توزیع کمک برای یافتن غذا مراجعه نکنند یا از ایستهای بازرسی و راهروهای تخلیه عبور نکنند – اسرائیل قادر نخواهد بود آنان را از دادههایشان سلب مالکیت کند.
۲.۳. مرگ فلسطینیان بهمثابه داده
دادههایی که از فلسطینیان سلب مالکیت میشود، اسرائیل برای هدفگذاری آنان بهکار میگیرد. اسرائیل با بهرهگیری از کارکردهای پیشبینیکنندهی هوش مصنوعی میتواند فلسطینیان را بهصورت پیشدستانه هدف قرار دهد؛ برای نمونه، از طریق پایش رسانههای اجتماعی آنان بهمنظور فعالیتهای جرمانگارانهای که ادعا میشود در آینده انجام خواهند داد (Hever 2023). در برخی موارد نیز، همان سامانههایی که داده را گردآوری میکنند، خودِ ابزار هدفگذاری هستند. نمونهای برجسته را میتوان در شهر الخلیل (هبرون) مشاهده کرد؛ جایی که «حسگرهای حرکت و حرارت، اسکنرهای پلاک خودرو، الگوریتمهای تشخیص چهره و نظارت مداربستهی ۲۴ ساعته» برای پایش فلسطینیان – گاه حتی در داخل خانههایشان – بهکار گرفته میشود (Goodfriend 2023b, 461). در سال ۲۰۲۲، اسرائیل سامانهی کنترل جمعیت از راه دور را معرفی کرد که از هوش مصنوعی برای تعیین اهداف خود استفاده میکند. این سامانه که توسط شرکت اسرائیلی «اسمارتشوتر»[۲۹] توسعه یافته است، قادر است گاز اشکآور، نارنجکهای شوکآور یا گلولههای اسفنجی را به سمت اهداف شناساییشده شلیک کند (Fatafta 2023, 183). این مثال نشان میدهد که چگونه لحظات هدفگذاری، خود به سازوکاری برای گردآوری و تغذیهی داده به ابزارهای مبتنی بر هوش مصنوعی تبدیل میشوند؛ ابزارهایی که فلسطینیان را بهمثابه اهداف حملات (احتمالاً مرگبار) بازنمایی و تولید میکنند.
علاوه بر زندگیشان، مرگ فلسطینیان نیز به نقاط دادهای برای اسرائیل تبدیل میشود تا فناوریهای مرگبار خود را دقیقتر تنظیم کرده و کارآمدی آنها را به نمایش بگذارد. از آنجا که هوش مصنوعی مستلزم یک حلقهی بازخورد دادهای مداوم است، دادههای مربوط به زندگی فلسطینیان هدفگذاری آنها را در لحظه تسهیل میکند، و دادههای حاصل از هدفگذاری – و کشتار – آنها، دقت هدفگذاریهای آینده را بهبود میبخشد. برای نمونه، «اسپایس ۲۵۰»[۳۰] یک سامانهی هوش مصنوعی است که بر روی بالهای هواپیماهای حامل بمب نصب میشود و توسط اسرائیل برای تشخیص خودکار اهداف به کار میرود (Frantzman and Atherton 2019). یکی از نمایندگان شرکت «رافائل سامانههای دفاعی پیشرفته»[۳۱] – شرکت اسرائیلی تأمینکنندهی این فناوری برای ارتش اسرائیل – اظهار داشت که اسپایس ۲۵۰ امکان «یادگیری عمیق آینده بر اساس دادههای استخراجشده از پرتابهای پیشین» را فراهم میکند و دو کارکرد همزمان را انجام میدهد: نخست، ارزیابی بیدرنگ خسارت واردشده به هدف در جریان مأموریت؛ و دوم، استخراج دادههای پس از مأموریت برای بهروزرسانیهای آینده (Frantzman and Atherton 2019). به بیان ساده، اسپایس ۲۵۰ دادههای حاصل از خسارت ناشی از بمبها در یک مأموریت را تحلیل میکند تا مدل سامانه را بهبود دهد و میزان تخریبی را که بمبهای مورد استفاده در مأموریتهای بعدی میتوانند ایجاد کنند، افزایش دهد.
در نهایت، شیوههای آزمایشگری لازم برای آموزش، اجرا و آزمون ابزارهایی مانند اسپایس ۲۵۰، دادههایی تولید میکند که نهتنها به بهبود این سامانهها کمک میکند، بلکه برای بازیگران اقتصادی اسرائیلی – که آنها را توسعه میدهند، به کار میگیرند و به فروش میرسانند – سود مالی نیز به همراه دارد. تنها چند ماه پس از اکتبر ۲۰۲۳، استارتاپهای اسرائیلی مانند «اکسون ویژن» – که پشت برخی از محصولات مبتنی بر هوش مصنوعی مستقر در غزه قرار دارند – شروع به تبلیغ این موضوع کردند که «دقت» محصولاتشان در نتیجهی استفادهی میدانی، با هدف افزایش قابلیت بازاریابی آنها برای مشتریان بالقوه، «بهبود یافته است» (Kumon 2024). بهطور مشابه، دادههایی که اثبات میکند این ابزارها اهداف خود را با موفقیت مورد اصابت قرار دادهاند، توسط توسعهدهندگان تسلیحات اسرائیلی برای نمایش کارآمدی محصولاتشان به کار گرفته میشود. گزارش شده است که این شرکتها در نمایشگاههای تسلیحاتی، ویدئوهایی را بهعنوان مواد تبلیغاتی ارائه میکنند؛ از جمله سامانههایی که در عرض چند ثانیه کل محلههای فلسطینی را با خاک یکسان میکنند، یا حملات پهپادیای که «تعدادی از فلسطینیان بیگناه، از جمله کودکان» را کشتهاند (Baroud 2020; Loewenstein 2023,7–۸). به بیان خلاصه، اگر فلسطینیان نمیمردند، اسرائیل به دادههای لازم برای تکمیل مرگباری سامانههای هوش مصنوعی خود، اثبات قابلیتهای آنها، و بازاریابی آنها برای خریداران بالقوه دسترسی نداشت.
۴. جهان ـ مرگ الگوریتمی و دورریختنیِ مرگسیاست
دادههایی که در نتیجه و در خدمت استقرار آزمایشی و بهبود سامانههای مرگبار هوش مصنوعی تولید میشوند، از فرآیندهای تجدیدساخت نولیبرالی حمایت میکنند؛ فرآیندهایی که به گفتهی کلارنو، «گسترش پروژههای مرگسیاست برای حذف فقیران تحت تبعیض نژادی» را تسهیل میکنند (Clarno 2017, 201). مرگسیاست، مفهومی که اشیل امبمبه، نظریهپرداز و پژوهشگر، ابداع کرده است، به سیاستِ تابعسازی زندگی در برابر قدرت مرگ اشاره دارد (Mbembe 2003, 39). در ارتباط با زمینهای که در این مقاله بررسی میشود، به گفتهی امبمبه، «پیشرفتهترین شکل» مرگسیاست، «اشغال استعماری معاصر فلسطین» است (Mbembe 2019, 80). در واقع، شیوههای مرگسیاست اسرائیل طی سالها بهطور گسترده مستندسازی شدهاند و شامل مواردی از جمله شکنجه و کشتار زندانیان سیاسی فلسطینی بازداشتشده، مثلهکردن بدنهای فلسطینی، حمله به زیرساختهای سلامت و حیات، اعمال محدودیت بر دسترسی فلسطینیان به درمان پزشکی، برداشت اعضای بدن از فلسطینیانی جانباخته، و نگهداری منجمدشده یا امتناع از تحویل پیکرها به خانوادههایشان میشود (Alareer 2016; Amnesty International 2023b; Daher-Nashif 2021, 945; Deprez 2023,8–۹; Hanbali et al. 2024,2).
وقتی صحبت از پیشرفتهای فناوریهای هوش مصنوعی به میان میآید، دن مککیلن،[۳۲] پژوهشگر، با ارجاع به کار امبمبه نسبت به مسیر مرگسیاست آن هشدار میدهد. او توضیح میدهد که هوش مصنوعی به شکلی از حکمرانی در حوزههای خدمات اجتماعی، مراقبتهای بهداشتی و محیطهای زندانوار تبدیل میشود؛ حکمرانیای که «نهتنها در تخصیص حمایت برای زندگی تبعیض قائل میشود، بلکه کنشهایی را که امکان مرگ را فراهم میکنند نیز مجاز میشمارد» (McQuillan 2022, 85). به گفتهی مککیلن، هوش مصنوعی از طریق تشدید نابرابریهای نولیبرالی و محرومسازی افراد از دسترسی به نیازهای اساسی مانند مسکن، غذا و مراقبتهای بهداشتی، آنها را در برابر آسیبهای قابل پیشگیری آسیبپذیر میسازد.
گزارش تحقیقی اخیر مجلهی ۹۷۲+ تحلیلی روشنگرانه از بهکارگیری ابزارهای الگوریتمی هدفزایی در کارزار جاری اسرائیل در غزه ارائه داده است؛ از جمله «گاسپل»،[۳۳] سامانهای که ساختمانها را بهعنوان اهداف حملات هوایی علامتگذاری میکند، و «لوندر»،[۳۴] برنامهای که اهداف انسانی را شناسایی کرده و فهرستهای کشتار تولید میکند (Abraham 2023, 2024). اگرچه استفاده از برنامههای هوش مصنوعی مانند گاسپل پیشتر و سالها قبل از ۲۰۲۳ افشا شده بود، جزئیات مربوط به استقرار این سامانههای هدفزایی از آن زمان تصویری نگرانکنندهتر از مرگسیاست هوش مصنوعی آشکار کرده است (Ahronheim 2021). در امتداد هشدارهای مککیلن، بهکارگیری ابزارهای هدفزایی الگوریتمی مانند گاسپل و لوندر در غزه نشانگر تشدید آشکار ظرفیت خودکارسازی و نظاممندسازی تکنیکهای مرگسیاست اسرائیل است.
اگرچه تصویر کامل از اینکه چه دادهای توسط این سامانههای هدفزایی استفاده میشود همچنان روشن نیست، منابع ارتش اسرائیل گزارش دادهاند که توصیههای هدفزایی مبتنی بر هوش مصنوعی بر اساس پردازش میلیاردها نقطه داده از حسگرهای هوایی و زیرزمینی، تصاویر ماهوارهای، ارتباطات رهگیریشده، فعالیتهای رسانههای اجتماعی و موارد دیگر استوار است؛ دادههایی که به تسهیل خسارت در مقیاس وسیع و «تلفات قابلتوجه غیرنظامیان در غزه از طریق گردآوری و استفادهی خطاپذیر از اطلاعات قابل شناسایی شخصی» منجر میشوند (Dwoskin 2024; Forensic Architecture 2024; Khlaaf, West, and Whittaker 2024,2). بدینترتیب، این ابزارها نهتنها مسئول کشتار و مثلهسازی مستقیم دهها هزار فلسطینی هستند، بلکه به مرگ تدریجی صدها هزار نفر دیگر نیز کمک میکنند – مرگی که در نتیجهی تخریب غذا، آب، سرپناه، خدمات پزشکی و بهداشتی، و سایر زیرساختها و نظامهای حمایتی رخ میدهد؛ یا همان چیزی که امبمبه آن را «تخریب حسابشده و نظاممند» زیرساختها توصیف میکند (Hil and Polya 2025; Khatib, McKee, and Yusuf 2024, 237; Mbembe 2019, 82).
در پایان، این مقاله مرگسیاست را بهعنوان منظری تحلیلی در نظر میگیرد که از طریق آن میتوان سامانههای الگوریتمی هدفزاییِ مورد استفاده در غزه را تحلیل کرد. سه مداخلهی اساسی، بخشی از این چارچوب تحلیلی را تشکیل میدهند: نخست، شرایط مرگ فوری و تدریجی که توسط این سامانهها تسهیل میشود، مفهوم امبمبه از «جهان ـ مرگها» را به کار میگیرد؛ جهان ـ مرگهایی که بهعنوان «اشکال جدید و منحصربهفردی از هستی اجتماعی تعریف میشوند که در آنها جمعیتهای عظیم در معرض شرایط زیستیای قرار میگیرند که به آنها وضعیت مردگانِ زنده را اعطا میکند» (Mbembe 2003, 40). نیازهای دادهای این سامانهها فلسطینیان را در یک جهان ـ مرگ قرار میدهد؛ جایی که آنها عملاً به مردگانِ زنده تبدیل میشوند – به اندازهای زنده که بتوان از آنها سلب مالکیت دادهای کرد؛ دادههایی که برای هدفگذاری آنان و افزایش مرگباری ابزارهایی به کار میرود که همچنان مرگ را تولید میکنند.
دومین ویژگی مرگسیاست، تولید جهان ـ مرگها از طریق سلاحهایی است که «با هدف حداکثر تخریب افراد به کار گرفته میشوند» (Mbembe 2019, 92). در اینجا، مقیاس بیسابقهای که اسرائیل از طریق آن اهداف را با سرعت شناسایی میکند، قابل چشمپوشی نیست، زیرا مقامات ارتش اسرائیل هوش مصنوعی را «چندبرابرکنندهی نیرو» توصیف کردهاند که به آنها ظرفیت اجرای تعداد بسیار بیشتری حملهی هوایی نسبت به گذشته را اعطا میکند (Biesecker, Mednick, and Burke 2025). برای نمونه، آنها اشاره کردهاند که «گاسپل» روزانه ۱۰۰ هدف انسانی تولید میکند، در حالی که ارتش اسرائیل چند سال پیش تنها قادر به تولید حدود ۵۰ هدف در سال بود (Abraham 2023). برای دستیابی به چنین سطحی از «کارآمدی عملیاتی قابلتوجه»، به توان محاسباتی عظیمی برای اجرای این ابزارهای هوش مصنوعی نیاز است – توانی که از طریق مراکز داده، مزرعههای سِروِر و خدمات ابری شرکتهای فناوری بزرگ مانند آمازون، سیسکو، دل، گوگل، مایکروسافت، اوپنایآی و پالانتیر فراهم میشود (Biesecker, Mednick, and Burke 2025). این سامانهها، در مقایسه با شیوههای پیشین شناسایی اهداف، توانایی هدفگذاری گسترده و حداکثری افراد را برای اسرائیل فراهم میکنند.
سومین مداخلهی تحلیلی، مفهوم امبمبه از «جهان ـ مرگها» در وضعیت محاصره است و اینکه چگونه چنین وضعیتی امکان نوعی «شیوهی کشتار» را فراهم میکند که در آن «کل جمعیتها هدف قرار میگیرند» (Mbembe 2019, 82). این توصیف برای استقرار ابزارهای هدفزایی الگوریتمی در نوار غزه محاصرهشده کاملاً مناسب است. برای آگاهی از زمینه، گفته میشود که سامانهی «لوندر» که توسط افسران ارتش اسرائیل مورد استفاده قرار میگیرد، دادههای شخصی فلسطینیان را در سیستم خود وارد کرده و به هر فرد یک امتیاز اختصاص میدهد (Biesecker, Mednick, and Burke 2025). هنگامی که امتیاز یک فرد از آستانهی از پیش تعیینشده فراتر میرفت، آن فرد بهعنوان هدفی برای کشتن علامتگذاری میشد. پس از اتمام فهرست اهدافی که از آستانهی اول عبور کرده بودند، افسران ارتش اسرائیل آستانهی جدید و پایینتری تعیین میکردند که به آنها اجازه میداد افراد بیشتری را هدف قرار دهند (Abraham 2024). تنظیم نظام امتیازدهی «لوندر» بهگونهای است که هر فلسطینی در غزه میتواند در هر لحظه به هدف تبدیل شود و در نتیجه، کل جمعیت ساکنان غزه را به اهداف بالقوه بدل میسازد.
بهطور کلی، سامانههای هوش مصنوعی که به سلب مالکیت داده از هر دو حوزهی زندگی و مرگ فلسطینیان وابستهاند، قادر به تولید انبوه فهرستهای اعدام هستند و بهگونهای تنظیم شدهاند که کل جمعیت غزه را بهعنوان هدف حفظ کنند – و همگی وجود یک «جهان ـ مرگ الگوریتمی» را تجسم میبخشند؛ جهانی که توسط منطق آزمایشگری برگرفته از سایر جغرافیاهای زندانوار نژادی اداره میشود. این سامانهها همچنین بر محوریت «دورریختنیبودن» در پروژهی مرگسیاست اسرائیل دلالت دارند. کلارنو در اظهارنظری دربارهی کارزار نسلکشیجویانهی جاری در غزه تأکید میکند که اقتصاد نژادی-سرمایهداری اسرائیل «دورریختنیبودن نژادی را به یک فرصت بازار تبدیل کرده است» (Clarno 2024). بهطور مشابه، لوونشتاین هشدار میدهد که «اسرائیل مدلی در غزه ارائه کرده است از اینکه چگونه میتوان یک جامعه را (هنوز) بدون پیامدهای جدی نابود کرد» – و این امر توجه دیگر نیروهایی را که مایلاند با جمعیتهایی که نامطلوب تلقی میکنند به شیوهای مشابه برخورد کنند، جلب کرده است (Loewenstein 2025). بهعبارتی، اسرائیل نهتنها سلاحها و سامانههای نظارتی را به خریداران مشتاق عرضه میکند، بلکه نقشهی راهی نیز صادر میکند – با هوش مصنوعی بهعنوان جدیدترین ابزار مرگسیاستِ دورریختنیسازی – برای نحوهی مدیریت جمعیتهای ناخواسته از طریق تبدیل آنها به موجوداتی قابلمصرف و حذفشدنی.
۵. یک پیشنمایهی خطرناک
اسرائیل بهعنوان یک پروژهی نژادی-سرمایهداری که بهطور مؤثر وابستگی خود به نیروی کار فلسطینی را کاهش داده است، بهواسطهی جایگاه ژئوپلیتیکیاش با موانع اندکی در برابر شیوههای استعمار مهاجرنشینانه مواجه است؛ شیوههایی که هدفشان حذف فلسطینیان بهمنظور جایگزینی آنها با مهاجرنشینان است؛ با این حال، «حذف» بهتنهایی بهطور کامل مشخص نمیکند که اسرائیل چگونه فلسطینیان را تحت سلطه قرار میدهد. این مقاله به تبارشناسی جغرافیاهای زندانوار نژادی – مزارع، اردوگاههای آوارگان و زندانها – بهعنوان مکانهای آزمایش انسانی روی آورده است. این کار را انجام داده است تا بررسی کند که چگونه فلسطینیان بهعنوان ابژههای آزمایشگری به کار گرفته میشوند تا مُهر «میدانآزموده» بر محصولاتی زده شود که سوداگران جنگی اسرائیل آنها را در سراسر جهان بازاریابی و صادر میکنند.
در اینجا کشاکشی نهفته است که برای دلیل وجودی[۳۵] اسرائیل بهعنوان یک پروژهی همزمان استعمار مهاجرنشینانه و نژادی-سرمایهداری محوری است. از یک سو، از منظر سیاسی، شیوههای حذفی اسرائیل بهعنوان یک رژیم استعمار مهاجرنشینانه بر ضرورتی برای نابودی سوژهی استعماری دلالت دارند – ضرورتی که تا حد زیادی از سوی جامعهی اسرائیل مورد چشمپوشی یا تأیید ضمنی قرار میگیرد (Hardigan 2024). از سوی دیگر، از منظر اقتصادی، اقتصاد نژادی-سرمایهداری اسرائیل به فلسطینیان بهعنوان سوژههای آزمایشگری نیاز دارد تا جایگاه خود را بهعنوان یکی از صادرکنندگان پیشروی فناوریهای نظارتی و تسلیحاتی تثبیت کند.
پذیرش و تثبیت فزایندهی هوش مصنوعی در نظارت و جنگافروزی، منطق آزمایشگریِ مشخصهی جغرافیاهای زندانوار را دگرگون میکند. نیاز به حجم عظیمی از دادههای پیوستهدرحالبهروزرسانی، پارادایمی را معرفی میکند که در آن سامانههای هوش مصنوعی فلسطینیان را – هم در زندگی و هم در مرگ – از دادههایشان سلب مالکیت میکنند. اسرائیل به اطلاعاتی متکی است که از زندگی فلسطینیان تولید میشود تا آنها را هدف قرار دهد، و به اطلاعات حاصل از مرگ فلسطینیان برای بهبود و بازاریابی سامانههای هوش مصنوعیای متکی است که به هدفگیری دیگران ادامه خواهند داد.
تازهترین استقرار سامانههای هدفزایی الگوریتمی در غزه از اکتبر ۲۰۲۳ به بعد، این دوگانگی را به خط مقدم آورده است. این سامانههای هدفزایی، دادههای استخراجشده بهصورت اجباری را از فلسطینیان زنده دریافت میکنند – دادههایی که این سامانهها آنها را ضبط، پردازش، انتزاع و کمّیسازی میکنند – و زندگی و کنش اجتماعی را به معیارهایی برای تعیین اینکه چه کسی بیشترین انطباق را برای کشتهشدن دارد، تبدیل میکنند. مرگ فلسطینیان نیز به نوبهی خود دادههای بیشتری را برای تنظیم دقیقتر و تکثیر کشتارهای آینده فراهم میآورد. توانایی هدفگیری دلبهخواهی کل جمعیتی از فلسطینیان که بهعنوان «دورریختنی» ساخته شدهاند، آنها را در نوعی «جهان ـ مرگ الگوریتمی» قرار میدهد و مسیر مرگسیاستِ هشداردهندهی هوش مصنوعی را شتاب میبخشد، زیرا منطق آزمایشگریای که سرمایهداری نژادی اسرائیل را پیش میبرد و خشونت مرگباری که آن را پایدار میکند، بهشدت خودکار و نظاممند میشود.

مشخصات متن اصلی:
Sarah Fathallah, Algorithmic Death-World: Artificial Intelligence and the Case of Palestine, Public Humanities (2026), 2, e7, 1–۱۵ doi:10.1017/pub.2025.10113
[۱] Hortense J. Spillers
[۲] این عنوان «Mama’s Baby, Papa’s Maybe: An American Grammar Book» – ارجاعی است به نظام بردهداری در آمریکا که در آن، فرزندان بردگان از نظر قانونی «پدر» نداشتند و هویت آنان صرفاً از طریق مادر (که خود ملکِ ارباب بود) تعریف میشد. هورتنس جی. اسپیلرز، نظریهپرداز فمینیست سیاه، در این مقاله از «دستور زبان» (grammar) استعارهای برای نظامهای نمادین، حقوقی و نهادی استفاده میکند که بدن سیاهان را عینیت میبخشند و مالکیتپذیر میسازند. «کتاب دستور زبان آمریکایی» به این معنا نه یک کتاب آموزشی، بلکه شرح نظاممند قواعد نژاد، مالکیت، جنسیت و خشونت در سنت آمریکایی است. اشاره به «مامان» و «بابا» در عنوان نیز تضادی طنزآمیز با گفتمان خانوادهی هستهای سفیدپوست ایجاد میکند، جایی که از منظر نظام بردهداری، مادر تنها حلقهی اثباتشدهی نسب است و پدر همواره «شاید» (نامعلوم) باقی میماند / مترجم.
[۳] “A mass assassination factory”
[۴] Settler-colonial
[۵] franchise colonialism
[۶] Andy Clarno
[۷] Neoliberal Apartheid
[۸] Antony Loewenstein
[۹] The Palestine Laboratory
[۱۰] Achille Mbembe
[۱۱] Destin Jenkins
[۱۲] Justin Leroy
[۱۳] Histories of Racial Capitalism
[۱۴] PatrickWolfe
[۱۵] logic of elimination
[۱۶] elimination of the native
[۱۷] Neoliberal Apartheid
[۱۸] Britt Rusert
[۱۹] Jeff Halper
[۲۰] Neve Gordon
[۲۱] NSO Group
[۲۲] Open Data Institute
[۲۳] feedback loop
[۲۴] AnyVision
[۲۵] Corsight
[۲۶] Wolf Pack
[۲۷] Red Wolf
[۲۸] Blue Wolf
[۲۹] Smartshooter
[۳۰] Spice 250
[۳۱] Rafael Advanced Defense Systems
[۳۲] Dan McQuillan
[۳۳] Gospel
[۳۴] Lavender
[۳۵] raison d’être
منابع
Abraham, Yuval. 2023. “‘A Mass Assassination Factory’: Inside Israel’s Calculated Bombing of Gaza.” +۹۷۲ Magazine, November 30. https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/.
Abraham, Yuval. 2024. “‘Lavender’: The AI Machine Directing Israel’s Bombing Spree in Gaza.” April 3. https://www.972mag.com/lavender-ai-israeli-army-gaza/.
Ahronheim, Anna. 2021. “Israel’s Operation against Hamas Was the World’s First AI War.” The Jerusalem Post, May 27. https://www.jpost.com/arab-israeli-conflict/gaza-news/guardian-of-the-walls-the-first-ai-war-669371.
Alareer, Refaat. 2016. “Israel’s Killer Bureaucracy.” The Electronic Intifada, June 28. https://electronicintifada.net/content/israels-killer-bureaucracy/17226.
Amnesty International. 2021. “Amnesty International and More than 170 Organisations Call for a Ban on Biometric Surveillance.” June 7. https://www.amnesty.org/en/latest/press-release/2021/06/amnesty-international-and-more-than-170-organisations-call-for-a-ban-on-biometric-surveillance/.
Amnesty International. 2023a. “Automated Apartheid: How Facial Recognition Fragments, Segregates, and Controls Palestinians in the OPT.” https://www.amnesty.org/en/documents/mde15/6701/2023/en/.
Amnesty International. 2023b. “Israel/OPT: Horrifying Cases of Torture and Degrading Treatment of Palestinian Detainees amid Spike in Arbitrary Arrests.” https://www.amnesty.org/en/latest/news/2023/11/israel-opt-horrifying-cases-of-torture-and-degrading-treatment-of-palestinian-detainees-amid-spike-in-arbitrary-arrests/.
Arnett, George. 2015. “The Numbers behind the Worldwide Trade in Drones.” The Guardian, March 16. https://www.theguardian.com/news/datablog/2015/mar/16/numbers-behind-worldwide-trade-in-drones-uk-israel.
Baroud, Ramzy. 2020. “Technology of Death: The Not-so-Shocking Report on Israeli Weapons Exports.” The Jordan Times, March 24. https://jordantimes.com/opinion/ramzy-baroud/technology-death-not-so-shocking-report-israeli-weapons-exports.
Bartram, David V. 1998. “Foreign Workers in Israel: History and Theory.” International Migration Review 32 (2): 303. https://doi.org/10.2307/2547185.
Berda, Yael. 2018. Living Emergency: Israel’s Permit Regime in the Occupied West Bank. Stanford Briefs.
Biesecker, Michael, Sam Mednick, and Garance Burke. 2025. “As Israel Uses US-Made AI Models in War, Concerns Arise about Tech’s Role in Who Lives and Who Dies.” AP News, February 18. https://apnews.com/article/israel-palestinians-ai-technology-737bc17af7b03e98c29cec4e15d0f108.
Buxbaum, Jessica. 2022. “Israel Experiments on Palestinians with AI-Powered Gun at Checkpoints.” MintPress News, October 5. https://www.mintpressnews.com/israel-smart-shooter-palestinians-lab-rats-ai-powered-gun/282129/.
Clarno, Andy. 2017. Neoliberal Apartheid: Palestine/Israel and South Africa after 1994. University of Chicago Press. https://doi.org/10.7208/chicago/9780226430126.001.0001.
Clarno, Andy. 2024. “Israel’s Lavender Kill List: A Joint Imperial Production.” Spectre Journal 5 (10). https://doi.org/10.63478/LS2N6V2D.
Cogan, Yaniv, and Jeremy Scahill. 2024. “The Israeli-American Businessman Pitching a $200 Million Plan to Deploy Mercenaries to Gaza.” Drop Site, October 21. https://www.dropsitenews.com/p/mercenary-deliver-humanitarian-aid-gaza.
Daher-Nashif, Suhad. 2021. “Colonial Management of Death: To Be or Not to Be Dead in Palestine.” Current Sociology 69 (7): 945–۶۲. https://doi.org/10.1177/0011392120948923.
Deprez, Miriam. 2023. “Visual Necropolitics and Visual Violence: Theorizing Death, Sight, and Sovereign Control of Palestine.” International Political Sociology 17 (3): olad016. https://doi.org/10.1093/ips/olad016.
Diehl, Caleb, and Joseph Federman. 2024. “A Look at How Settlements Have Grown in the West Bank over the Years.” AP News, July 5. https://apnews.com/a-look-at-how-settlements-have-grown-in-the-west-bank-over-the-years-0000019079d8d0f6a3da79dcbd0a0000.
Dowling, Paddy. 2023. “Dirty Secret of Israel’s Weapons Exports: They’re Tested on Palestinians.” Al Jazeera, November 17. https://www.aljazeera.com/features/2023/11/17/israels-weapons-industry-is-the-gaza-war-its-latest-test-lab.
Dwoskin, Elizabeth. 2021. “Israel Escalates Surveillance of Palestinians with Facial Recognition Program in West Bank.” The Washington Post, November 8. https://www.washingtonpost.com/world/middle_east/israel-palestinians-surveillance-facial-recognition/2021/11/05/3787bf42-26b2-11ec-8739-5cb6aba30a30_story.html.
Dwoskin, Elizabeth. 2024. “Israel Built an ‘AI Factory’ for War. It Unleashed It in Gaza.” The Washington Post, December 29. https://www.washingtonpost.com/technology/2024/12/29/ai-israel-war-gaza-idf/.
Fatafta, Marwa. 2023. “Apartheid Tech: Biometric ID and Surveillance in the Occupied West Bank.” In Resisting Borders and Technologies of Violence, edited by Mizue Aizeki, Matt Mahmoudi, and Coline Schupfer. Haymarket Books.
Fatafta, Marwa, and Daniel Leufer. 2024. “Artificial Genocidal Intelligence: How Israel Is Automating Human Rights Abuses and War Crimes.” AccessNow. https://www.accessnow.org/publication/artificial-genocidal-intelligence-israel-gaza/.
Frankel, Julia, and Sam Mednick. 2025. “Takeaways from AP’s Report into Claims of Excessive Force by American Contractors at Gaza Aid Sites.” AP News, July 2. https://apnews.com/article/israel-military-gaza-ghf-aid-un-3c1bef17093a2a3eeda0764c220b857b.
Frantzman, Seth J. 2019. “Israel’s Carmel Program: Envisioning Armored Vehicles of the Future.” C4ISRNET, August 5. https://www.c4isrnet.com/artificial-intelligence/2019/08/05/israels-carmel-program-envisioning-armored-vehicles-of-the-future/.
Frantzman, Seth J. 2020. “Israel Finds an AI System to Help Fight in Cities.” C4ISRNET, February 5. https://www.c4isrnet.com/battlefield-tech/2020/02/05/israel-finds-an-ai-system-to-help-fight-in-cities/.
Frantzman, Seth J. 2021. “New AI System Fills Rifle Sights with Extensive, Easy-to-Digest Info.” C4ISRNET, September 7. https://www.c4isrnet.com/artificial-intelligence/2021/09/07/new-ai-system-fills-rifle-sights-with-extensive-easy-to-digest-info/.
Frantzman, Seth J. 2022. “Israel Unveils Artificial Intelligence Strategy for Armed Forces.” DefenseNews, February 11. https://www.defensenews.com/artificial-intelligence/2022/02/11/israel-unveils-artificial-intelligence-strategy-for-armed-forces/.
Frantzman, Seth J., and Kelsey D. Atherton. 2019. “Israel’s Rafael Integrates Artificial Intelligence into Spice Bombs.” C4ISRNET, June 17. https://www.c4isrnet.com/artificial-intelligence/2019/06/17/israels-rafael-integrates-artificial-intelligence-into-spice-bombs/.
Frenkel, Sheera. 2024. “Israel Deploys Expansive Facial Recognition Program in Gaza.” The New York Times, March 27. https://www.nytimes.com/2024/03/27/technology/israel-facial-recognition-gaza.html.
Giovannetti, Megan. 2019. “‘Battle-Proven:’ Weapons Expo Shows One Way Israel Profits from Occupation.” The Progressive Magazine, June 10. https://progressive.org/latest/weapons-expo-israel-profits-occupation-giovannetti-190610/.
Goodfriend, Sophia. 2023a. “What the Rise of Drone Warfare Means for Palestinians.” Foreign Policy, January 20. https://foreignpolicy.com/2023/01/20/israel-palestine-west-bank-attack-surveillance-drones-far-right-settlers/.
Goodfriend, Sophia. 2023b. “Algorithmic State Violence: Automated Surveillance and Palestinian Dispossession in Hebron’s Old City.” International Journal of Middle East Studies 55 (۳): ۴۶۱–۷۸. https://doi.org/10.1017/S0020743823000879.
Gray, Catriona. 2021. “Data Dispossession.” The Sociological Review Magazine, May. https://doi.org/10.51428/tsr.ilzc1791.
Halper, Jeff. 2015. War against the People: Israel, the Palestinians and Global Pacification. Pluto Press.
Halper, Jeff. 2023. “Global Palestine: Exporting Israel’s Regime of Population Control.” In Resisting Borders and Technologies of Violence, edited by Mizue Aizeki, Matt Mahmoudi, and Coline Schupfer. Haymarket Books.
Hanbali, Layth, Edwin Jit Leung Kwong, Amy Neilson, James Smith, Sali Hafez, and Rasha Khoury. 2024. “Israeli Necropolitics and the Pursuit of Health Justice in Palestine.” BMJ Global Health 9 (۲): e014942. https://doi.org/10.1136/bmjgh-2023-014942.
Hardigan, Richard. 2024. “Polls Show Broad Support in Israel for Gaza’s Destruction and Starvation.” Truthout, February 10. https://truthout.org/articles/polls-show-broad-support-in-israel-for-gazas-destruction-and-starvation/.
Hever, Shir. 2023. “Israel Is Already Weaponizing AI — But Not in the Ways It Claims to Be.” Mondoweiss, July 1. https://mondoweiss.net/2023/07/ai-in-service-of-ia-artificial-intelligence-can-be-used-for-legitimizing-israeli-apartheid/.
Hil, Richard, and Gideon Polya. 2025. “Skewering History: The Odious Politics of Counting Gaza’s Dead.” Arena, July 11. https://arena.org.au/politics-of-counting-gazas-dead/.
Horowitz, Adam. 2011. “New Resource Tracks and Analyzes Israeli Arms Exports.” Mondoweiss, February 27. https://mondoweiss.net/2011/02/new-resource-tracks-and-analyzes-israeli-arms-exports/.
Jenkins, Destin, and Justin Leroy. 2021. “Introduction: The Old History of Capitalism.” In Histories of Racial Capitalism, edited by Justin Leroy and Destin Jenkins, 1–۲۶. Columbia University Press. https://doi.org/10.7312/jenk19074-002.
Kennard, Matt. 2016. “The Cruel Experiments of Israel’s Arms Industry.” Pulitzer Center, December 28. https://pulitzercenter.org/stories/cruel-experiments-israels-arms-industry.
Khatib, Rasha, Martin McKee, and Salim Yusuf. 2024. “Counting the Dead in Gaza: Difficult but Essential.” The Lancet 404 (۱۰۴۴۹): ۲۳۷–۳۸. https://doi.org/10.1016/S0140-6736(24)01169-3.
Khlaaf, Heidy, Sarah Myers West, and Meredith Whittaker. 2024. “Mind the Gap: Foundation Models and the Covert Proliferation of Military Intelligence, Surveillance, and Targeting.” arXiv. http://arxiv.org/abs/2410.14831.
Kumon, Takeshi. 2024. “Israeli Startups Hope to Export Battle-Tested AI Military Tech.” Nikkei, March 30. https://web.archive.org/web/20250301012557/https://asia.nikkei.com/Politics/Israel-Hamas-war/Israeli-startups-hope-to-export-battle-tested-AI-military-tech.
Loewenstein, Antony. 2023. The Palestine Laboratory: How Israel Exports the Technology of Occupation around the World. First published. Verso Books.
Loewenstein, Antony. 2025. “Israel’s Use of AI in Gaza Is a Terrifying Model Coming to a Country near You.” Middle East Eye, January 28. https://www.middleeasteye.net/opinion/israel-use-ai-gaza-terrifying-model-coming-country-near-you.
Masarwa, Lubna. 2021. “Israel Can Monitor Every Telephone Call in West Bank and Gaza, Says Intelligence Source.” Middle East Eye, November 15. https://www.middleeasteye.net/news/israel-can-monitor-every-telephone-call-west-bank-and-gaza-intelligence-source.
Mbembe, Achille. 2003. “Necropolitics.” Public Culture 15 (۱): ۱۱–۴۰. https://doi.org/10.1215/08992363-15-1-11.
Mbembe, Achille. 2019. Necropolitics. Duke University Press. https://doi.org/10.1215/9781478007227.
McQuillan, Dan. 2022. Resisting AI: An Anti-Fascist Approach to Artificial Intelligence. Bristol University Press.
Northam, Jackie. 2014. “With Homegrown Technology, Israel Becomes Leading Arms Exporter.” NPR, August 29. https://www.npr.org/sections/parallels/2014/08/29/344030354/with-home-grown-technology-israel-becomes-leading-arms-exporter.
Office of the United Nations High Commissioner for Human Rights. 2024. “State of Palestine: Israeli Settlements in the Occupied Palestinian Territory, Including East Jerusalem, and in the Occupied Syrian Golan.” https://www.ohchr.org/sites/default/files/2024-03/Palestine-March2024.pdf.
Robins-Early, Nick. 2024a. “How Israel Uses Facial-Recognition Systems in Gaza and Beyond.” The Guardian, April 19. https://www.theguardian.com/technology/2024/apr/19/idf-facial-recognition-surveillance-palestinians.
Robins-Early, Nick. 2024b. “AI’s ‘Oppenheimer Moment’: Autonomous Weapons Enter the Battlefield.” The Guardian, July 14. https://www.theguardian.com/technology/article/2024/jul/14/ais-oppenheimer-moment-autonomous-weapons-enter-the-battlefield.
Rusert, Britt. 2019. “Naturalizing Coercion: The Tuskegee Experiments and the Laboratory Life of the Plantation.” In Captivating Technology, edited by Ruha Benjamin, 25–۴۹. Duke University Press. https://doi.org/10.1215/9781478004493-003.
Skyline International for Human Rights. 2025. “Biometrics-for-Food: A Dangerous Shift from Humanitarian Relief to Coercive Surveillance.” Skyline International for Human Rights (blog), May 15. https://skylineforhuman.org/en/news/details/819/biometrics-for-food-a-dangerous-shift-from-humanitarian-relief-to-coercive-surveillance.
Snaith, Ben. 2023. “What Do We Mean by ‘without Data, There Is No AI’?” Short paper. Open Data Institute. https://theodi.cdn.ngo/media/documents/20231221_-_Data-centric_AI_Short_Paper_-_What_do_we_mean_by_without_data_there_3AEHdDW.pdf.
Solon, Olivia. 2019. “Why Did Microsoft Fund an Israeli Firm That Surveils West Bank Palestinians?” NBC News, October 28. https://www.nbcnews.com/news/all/why-did-microsoft-fund-israeli-firm-surveils-west-bank-palestinians-n1072116.
Veracini, Lorenzo. 2011. “Introducing: Settler Colonial Studies.” Settler Colonial Studies 1 (۱): ۱–۱۲. https://doi.org/10.1080/2201473X.2011.10648799.
Wolfe, Patrick. 2001. “Land, Labor, and Difference: Elementary Structures of Race.” The American Historical Review 106 (۳): ۸۶۶. https://doi.org/10.2307/2692330.
Wolfe, Patrick. 2006. “Settler Colonialism and the Elimination of the Native.” Journal of Genocide Research 8 (۴): ۳۸۷–۴۰۹. https://doi.org/10.1080/14623520601056240.










دیدگاهتان را بنویسید