به گزارش گروه بینالملل خبرگزاری تسنیم، خبرگزاری آسوشیتدپرس نوشت که تحقیقات جدید نشان میدهد که شرکتهای بزرگ فناوری آمریکا بهطور مخفیانه به رژیم صهیونیستی در شناسایی و هدف قرار دادن افراد در غزه و لبنان از طریق هوش مصنوعی و خدمات پردازش ابری کمک کردهاند. اما همزمان، شمار تلفات غیرنظامیان بهشدت افزایش یافته و نگرانیهایی در مورد نقش این فناوریها در کشتار افراد بیگناه را برانگیخته است.
یک مقام اطلاعاتی اسرائیلی به آسوشیتدپرس گفته است که ادغام سیستمهای هوش مصنوعی با اطلاعات انسانی، به اشتباهات در هدفگیری منجر شده و در مواردی دانشآموزان دبیرستانی به اشتباه بهعنوان «نیروهای احتمالی دشمن» شناسایی شدهاند.
بر اساس این گزارش، ارتش رژیم صهیونیستی از هوش مصنوعی برای تحلیل حجم عظیمی از اطلاعات، شنود ارتباطات و دادههای نظارتی استفاده میکند تا تحرکات و گفتوگوهای مشکوک را شناسایی کند. پس از حمله گسترده نیروهای مقاومت فلسطین در ۷ اکتبر ۲۰۲۳، استفاده رژیم از فناوریهای شرکتهای مایکروسافت و OpenAI بهشدت افزایش یافت.
افزایش نقش هوش مصنوعی در جنگ
گزارش آسوشیتدپرس نشان میدهد که استفاده ارتش رژیم صهیونیستی از خدمات پردازش ابری و هوش مصنوعی مایکروسافت در مارس ۲۰۲۴ به ۲۰۰ برابر قبل از جنگ رسیده و میزان دادههای ذخیرهشده روی سرورهای مایکروسافت تا جولای همان سال دو برابر شده است. همچنین، استفاده ارتش این رژیم از سرورهای پردازشی مایکروسافت در دو ماه نخست جنگ ۶۰ درصد افزایش یافته است.
پس از حمله ۷ اکتبر که منجر به کشته شدن حدود ۱۲۰۰ نفر و اسارت بیش از ۲۵۰ نفر شد، رژیم صهیونیستی هدف خود را «نابودی حماس» اعلام کرد. اما این جنگ تاکنون به کشته شدن بیش از ۵۰ هزار نفر در غزه و لبنان و تخریب حدود ۷۰ درصد از ساختمانهای غزه انجامیده است.
همکاری مخفیانه شرکتهای فناوری آمریکایی با رژیم صهیونیستی
بر اساس اسناد و دادههای داخلی که توسط آسوشیتدپرس بررسی شده، شرکتهای بزرگی مانند مایکروسافت، OpenAI، گوگل و آمازون بهصورت مستقیم خدمات هوش مصنوعی و پردازش ابری را به ارتش رژیم صهیونیستی ارائه دادهاند. یکی از این اسناد، مربوط به قرارداد ۱۳۳ میلیون دلاری بین مایکروسافت و وزارت جنگ رژیم صهیونیستی است.
شرکت OpenAI مدعی است که «هیچ همکاری مستقیمی» با ارتش رژیم صهیونیستی ندارد و قوانین این شرکت، استفاده از فناوریهای آن برای توسعه تسلیحات و آسیبرساندن به انسانها را ممنوع کرده است. اما در سال ۲۰۲۳، OpenAI سیاستهای خود را تغییر داد و استفاده از فناوریهایش را برای «کاربردهای امنیت ملی» مجاز اعلام کرد.
تلفات انسانی ناشی از تصمیمات هوش مصنوعی
نقش هوش مصنوعی در هدفگیری اشتباه غیرنظامیان یکی از نگرانیهای اصلی کارشناسان است. به گفته یک افسر اطلاعاتی رژیم صهیونیستی به آسوشیتدپرس، هوش مصنوعی در سه سال گذشته در تمام عملیات هدفگیری نقش داشته است. اما گاهی بهدلیل اطلاعات نادرست یا ترجمههای اشتباه، افراد غیرنظامی بهعنوان اهداف نظامی شناسایی شدهاند.
یکی از نمونههای این خطا، بمباران یک خودروی غیرنظامی در جنوب لبنان در نوامبر ۲۰۲۳ بود که منجر به کشته شدن سه کودک و مادر آنها شد. تصاویر دوربینهای امنیتی نشان میداد که این خانواده پیش از حمله در حال خرید آب بودند، اما پهپادهای رژیم صهیونیستی بدون توجه به حضور کودکان، خودرو را هدف قرار دادند.
«محمود عدنان» پدر این سه دختر به آسوشیتدپرس گفت: «چرا هواپیما آن ماشین را انتخاب کرد – ماشینی که مملو از خندههای بچه های من بود که از پنجرههایش طنین انداز میشد».
اعتراضات در داخل شرکتهای فناوری
همکاری شرکتهای فناوری آمریکایی با رژیم صهیونیستی با اعتراضاتی در داخل این شرکتها همراه بوده است. در اکتبر ۲۰۲۳، مایکروسافت دو کارمند خود را به دلیل برگزاری مراسم همبستگی با فلسطینیان اخراج کرد. همچنین، در آوریل ۲۰۲۴، گوگل ۵۰ کارمند معترض به قراردادهای نظامی خود با رژیم صهیونیستی را اخراج کرد.
انتهای پیام/