رژیم صهیونیستی هوش مصنوعی را ماشین نسل‌کشی کرد


آنا گزارش می‌دهد؛

رژیم صهیونیستی هوش مصنوعی را ماشین نسل‌کشی کرد

رژیم صهیونیستی با سوءاستفاده از فناوری هوش مصنوعی، هزاران غیرنظامی غزه را هدف بمباران‌های کور قرار داد.

خبرگزاری علم و فناوری آنا؛ دو رسانه اسرائیلی گزارش کرده‌اند که رژیم صهیونیستی برای شناسایی اهداف و کشتار در غزه از هوش مصنوعی سوءاستفاده کرده است.

سیستمی که رژیم صهیونیستی از آن استفاده کرده است لَوِندر (Lavender) نام دارد و کارشناسان حقوق بشر و فناوری از آن به «جنایت جنگی» یاد کرده‌اند.

نشریه اسرائیلی-فلسطینی «۹۷۲+» و رسانه عبری‌زبان لوکال کال (Local Call) به‌تازگی گزارش کرده‌اند که ارتش رژیم صهیونیستی با استفاده از یک سیستم هدف‌گیری مجهز به هوش مصنوعی هزاران فلسطینی را به عنوان اهداف بالقوه برای بمباران شناسایی کرده است.

به گفته منابع اطلاعاتی درگیر در جنگ، کمپین بمباران ارتش رژیم صهیونیستی در غزه از یک پایگاه داده مجهز به هوش مصنوعی که قبلاً فاش نشده بود استفاده کرد که در یک مرحله ۳۷ هزار هدف بالقوه را بر اساس ارتباط آنها با حماس شناسایی کرد.

اسرائیل تلاش می‌کند فناوری اشغالگری را به جهان صادر کند

اذعان به کشتار غیرنظامیان

منابع اطلاعاتی علاوه بر صحبت در مورد استفاده از سیستم هوش مصنوعی موسوم به لَوِندر، ادعا می‌کنند که مقامات نظامی اسرائیل به‌ویژه در هفته‌ها و ماه‌های اولیه درگیری، مجوز کشتن تعداد زیادی از غیرنظامیان فلسطینی را صادر کرده‌اند.

شهادت غیرمعمول و صریح آنها نگاهی نادر به تجربیات دست اول مقامات اطلاعاتی اسرائیل که از سیستم‌های یادگیری ماشینی برای کمک به شناسایی اهداف در طول جنگ شش‌ماهه استفاده کرده‌اند، ارائه می‌دهد.

شهادت غیرمعمول و صریح مقامات اطلاعاتی نشان می‌دهد که آنها در طول جنگ شش‌ماهه از سیستم‌های یادگیری ماشینی برای شناسایی اهداف خود استفاده کرده‌اند.

روری چالندز (Rory Challands)، خبرنگار الجزیره، که از اورشلیم شرقی گزارش می‌دهد، گفت: «این پایگاه داده مسئول تهیه فهرست‌های ۳۷ هزار هدف کشتار است».

بی‌توجهی به خطای سیستم لوِندر

مقامات اطلاعاتی اسرائیل که نامشان فاش نشده است در گفتگو با رسانه‌ها اعلام کردند که لَوِندر حدود ۱۰ درصد خطا دارد. چالانز افزود: «اما این میزان از خطا مانع استفاده اسرائیلی‌ها نشد و آنها برای ردیابی سریع و شناسایی عوامل غالباً رده پایین حماس در غزه و بمباران آنها از لِوندر استفاده کردند.»

مارک اوون جونز، استادیار گروه مطالعات خاورمیانه و علوم انسانی دیجیتال در دانشگاه حمید بن خلیفه در قطر، به الجزیره گفت: «مشخص شده است که ارتش اسرائیل در حال استقرار سیستم‌های هوش مصنوعی آزمایش‌نشده است و از آنها برای تصمیم‌گیری درباره مرگ و زندگی غیرنظامیان استفاده می‌کند.»

جونز افزود: «بیایید صریح باشیم: این یک نسل‌کشی به کمک هوش مصنوعی است و در آینده باید خواستار توقف استفاده از هوش مصنوعی در جنگ باشیم.» نشریات اسرائیلی گزارش دادند که این روش منجر به کشته شدن هزاران غیرنظامی در غزه شده است.

روز پنجشنبه، وزارت بهداشت غزه اعلام کرد که از ۷ اکتبر تاکنون بیش از ۳۳ هزار فلسطینی در حملات اسرائیل کشته و بیش از ۷۵ هزار نفر زخمی شده‌اند.

آگاه کردن انسان‌ها از بزرگی مقیاس جنگ و نظارت بر هوش مصنوعی بسیار سخت است

نقض قوانین بشردوستانه با هوش مصنوعی

انسان‌هایی که با پایگاه داده هوش مصنوعی در تعامل بودند، بی‌هیچ مطالعه یا بررسی دقیق فقط با دستور حمله موافق کردند. آنها احتمالاً ظرف ۲۰ ثانیه فهرست کشتار را بررسی کرده و تصمیم می‌گیرند که آیا اجازه حمله هوایی را بدهند یا نه.»

در پاسخ به انتقادات گسترده، ارتش رژیم صهیونیستی گفت که تحلیلگرانش باید «بررسی‌های مستقلی» انجام دهند تا تعاریفی مطابق با اهداف شناسایی‌شده ارائه شود و این تصور که این فناوری یک «سیستم» است را رد کرد و گفت «آن فقط یک پایگاه داده است که هدفش ارجاع متقابل منابع اطلاعاتی به‌منظور تولید لایه‌های  اطلاعات به‌روز درباره عملیات نظامی سازمان‌های تروریستی است».

استدلال‌های حقوقی و دشواری آگاهی‌رسانی

اما به گفته چالانز، به ازای هر مبارز فلسطینی (هدف مورد نظر اسرائیلی‌ها)، «۵ تا ۱۰ غیرنظامی کشته شده است» و این واقعیت نشان می‌دهد که چرا شمار غیرنظامیان در غزه تا این حد زیاد است.

پروفسور توبی والش (Toby Walsh)، کارشناس هوش مصنوعی در دانشگاه نیو ساوت ولز در سیدنی، گفت که استدلال پژوهشگران حقوقی احتمالاً بر این خواهد بود که هدف‌گیری جنگی با هوش مصنوعی، نقض قوانین بشردوستانه بین‌المللی است.

والش به الجزیره گفت: «از منظر فنی، این آخرین اخبار نشان می‌دهد که آگاه کردن انسان‌ها و نیز نظارت معنی‌دار بر سیستم‌های هوش مصنوعی که مقیاس جنگ را به‌طور وحشتناک و غم‌انگیزی بزرگ می‌کنند چقدر سخت است.»

جرائم جنگی و کشتار‌های بی‌هدف

رسانه‌ها به نقل از منابع مختلف اعلام کردند که تصمیمات ارتش رژیم صهیونیستی در هفته‌های اول درگیری منجر به آن شد که «به ازای هر عامل کوچک حماس که سیستم لَوندر علامت‌گذاری می‌کرد، ۱۵ تا ۲۰ غیرنظامی کشته می‌شدند.»

این منابع همچنین گفتند که اگر در این سیستم مقامات ارشد حماس هدف قرار می‌گرفتند، ارتش اسرائیل در چندین نوبت اجازه کشتن بیش از ۱۰۰ غیرنظامی را در ترور یک فرمانده صادر می‌کرد.

استفاده از بمب‌های هدایت‌ناپذیر برای ویرانی خانه‌های هزاران فلسطینی که به تشخیص هوش مصنوعی به گروه‌های شبه‌نظامی در غزه مرتبط بودند، می‌تواند به توضیح آمار بالا و تکان‌دهندۀ تلفات جنگ کمک کند. وزارت بهداشت در منطقه تحت کنترل حماس می‌گوید ۳۳ هزار فلسطینی در درگیری‌های شش ماه گذشته کشته شده‌اند و بر اساس داده‌های سازمان ملل تنها در ماه اول جنگ، ۱۳۴۰ خانواده خسارت دیده‌اند و ۳۱۲ خانواده بیش از ۱۰ عضو خود را در همان ماه اول از دست دادند.

مقامات رژیم صهیونیستی برای شناسایی اهداف جنگ غزه از سیستم‌های یادگیری ماشینی استفاده کرده‌اند

صدور فناوری اشغالگری

بن سائول (Ben Saul)، گزارشگر ویژه سازمان ملل در امور حقوق بشر و مبارزه با تروریسم، گفت: اگر جزئیات گزارش صحت داشته باشد، «بسیاری از حملات اسرائیل در غزه جنایت جنگی بوده و حملات نابرابر صورت گرفته است.»

آنتونی لوونشتاین (Antony Loewenstein)، روزنامه‌نگار استرالیایی و نویسنده کتاب «آزمایشگاه فلسطین: چگونه اسرائیل فناوری اشغالگری را به جهان صادر کرد» می‌گوید: «اسرائیل در حال حاضر تلاش می‌کند این ابزار‌ها را به نهاد‌های خارجی بفروشد، به دولت‌هایی که نه با انزجار، بلکه با تحسین، دنبال کار‌های اسرائیل در غزه هستند. ما در ماه‌ها و سال‌های آینده خواهیم فهمید که آنها چه کسانی هستند …»

گزارش حاضر از پایگاه‌های خبری الجزیره و گاردین به فارسی برگردان شده است.

sitemap