1

هوش مصنوعی "لاوندر" و واتس‌اپ؛ سلاحی برای نسل‌کشی در غزه

  • کد خبر : 420814
  • ۰۲ دی ۱۴۰۳ - ۶:۵۹

به گزارش خبرنگار اجتماعی خبرگزاری تسنیم، درگیری‌های نظامی میان حماس و اسرائیل تنها به حملات فیزیکی محدود نمی‌شود. این جنگ اکنون وارد عرصه جدیدی شده است؛ جایی که داده‌های کاربران در پلتفرم‌های اجتماعی و هوش مصنوعی به ابزارهای نظامی برای هدف‌گیری غیرنظامیان تبدیل شده‌اند. در این میان “واتس‌اپ” به‌عنوان یکی از محصولات شرکت متا، در […]

به گزارش خبرنگار اجتماعی خبرگزاری تسنیم، درگیری‌های نظامی میان حماس و اسرائیل تنها به حملات فیزیکی محدود نمی‌شود. این جنگ اکنون وارد عرصه جدیدی شده است؛ جایی که داده‌های کاربران در پلتفرم‌های اجتماعی و هوش مصنوعی به ابزارهای نظامی برای هدف‌گیری غیرنظامیان تبدیل شده‌اند. در این میان “واتس‌اپ” به‌عنوان یکی از محصولات شرکت متا، در کانون اتهامات سنگینی قرار گرفته است. اتهاماتی که از همدستی با رژیم صهیونیستی در کشتار ساکنان غزه و استفاده از داده‌های کاربران به‌عنوان ورودی سیستم‌های هوش مصنوعی پرده برمی‌دارد.

واتس‌اپ و هوش مصنوعی در خدمت اهداف نظامی

چندی پیش بود که پائول بیگار (Paul Biggar) مهندس ایرلندی افشا کرد که رژیم صهیونیستی با کمک سیستم هوش مصنوعی «لاوندر» (Lavender) و داده‌های استخراج‌شده از کاربران واتس‌اپ، اهداف بمباران در غزه را شناسایی می‌کند. این سیستم با بررسی اطلاعات موجود در گروه‌های واتس‌اپ و تحلیل داده‌های شخصی کاربران، مکان‌های تجمع ساکنان غزه را مشخص کرده و به‌عنوان اهداف بالقوه بمباران معرفی می‌کند.

این افشاگری، ادعای متا مبنی بر «امنیت اطلاعات» و «رمزگذاری سرتاسری» در واتس‌اپ را زیر سوال برده است. در حالی که این پلتفرم بارها از حریم خصوصی کاربران دفاع کرده، اکنون متهم است که داده‌های کاربران فلسطینی را در اختیار رژیم صهیونیستی قرار داده تا به‌وسیله هوش مصنوعی، نسل‌کشی غیرنظامیان در غزه را تسهیل کند.

بیگار در این خصوص گفت: رژیم صهیونیستی از داده‌های کاربران فلسطینی به‌عنوان ورودی سیستم هوش مصنوعی لَوِندر استفاده کرده است و بنابراین شرکت متا، مالک واتس‌اپ، شریک کشتار غیرنظامیان و خانواده‌های ساکن غزه است. این نشان می‌دهد که متا به تعهد خود مبنی بر رعایت حقوق بشر پایبند نیست.

این وبلاگ‌نویس ایرلندی همچنین به «روابط نزدیک» سه مقام ارشد متا از جمله گای روزن (Guy Rosen) مدیر ارشد امنیت اطلاعات متا، مارک زاکربرگ، مؤسس و مدیرعامل متا و شِریل سَندبرگ (Sheryl Sandberg)، مدیرعامل سابق و عضو فعلی هیئت مدیره متا، با اسرائیل اشاره کرد.

تصویرسازی مغرضانه: الگوریتم‌ها هم علیه فلسطینیان به صف شدند

علاوه بر اتهام نقض حریم خصوصی کاربران، گزارش‌هایی که بعد از عملیات طوفان الاقصی و حملات وحشیانه رژیم صهیونیستی به غزه منتشر شد نشان می‌دهد که تصویرساز مبتنی بر هوش مصنوعی واتس‌اپ نیز در نمایش محتوا، سوگیری آشکاری علیه فلسطینیان دارد. طبق گزارش‌های مستقل تأییدشده توسط روزنامه گاردین، جست‌وجوی عباراتی مانند «فلسطینی» یا «پسر مسلمان فلسطینی» تصاویری از افراد مسلح یا کودکانی با اسلحه به دست نشان می‌دهد. این در حالی است که جست‌وجوی مشابه برای عباراتی مانند «پسر اسرائیلی» یا «نیروهای نظامی اسرائیل» تصاویری مثبت و بدون نمایش سلاح ارائه می‌کند.

این روند در حالی رخ می‌دهد که سیاست‌های محتوایی متا، همواره با انتقاد فعالان حقوق بشر و روزنامه‌نگاران مواجه بوده است. سانسور محتوای حامی فلسطین و نمایش مغرضانه تصاویر، ابزاری برای تضعیف روایت‌های فلسطینی و تقویت تصویری مثبت از اسرائیل به شمار می‌رود.

هوش مصنوعی «لاوندر»؛ سلاحی برای نسل‌کشی

سیستم هوش مصنوعی لاوندر به‌عنوان یک ابزار نظامی، براساس داده‌های جمع‌آوری‌شده از گروه‌ها و کاربران واتس‌اپ عمل می‌کند. این فناوری، اطلاعات کاربران را تحلیل کرده و مکان‌هایی را که بیشترین تراکم جمعیتی دارند، برای حملات موشکی و هوایی شناسایی می‌کند. گزارش‌ها نشان می‌دهند که این سیستم به‌طور خاص از داده‌های فلسطینیان برای افزایش دقت حملات علیه ساکنان غزه استفاده کرده است.

از آغاز حملات رژیم صهیونیستی در اکتبر ۲۰۲۳ تاکنون، بیش از ۴۵ هزار فلسطینی کشته شده‌اند که بخش بزرگی از این قربانیان را زنان و کودکان تشکیل می‌دهند. افشای ارتباط میان واتس‌اپ و سیستم هوش مصنوعی لاوندر، نگرانی‌های جدی درباره نقش شرکت‌های فناوری در این کشتار به همراه داشته است.

نقض حریم خصوصی و همدستی در جنایتهای رژیم صهیونیستی

 استفاده از داده‌های واتس‌اپ برای اهداف نظامی، بار دیگر ماهیت خطرناک پلتفرم‌های اجتماعی در دوران جنگ را آشکار می‌کند. شرکتی که ادعای رمزگذاری سرتاسری و امنیت اطلاعات کاربران را مطرح می‌کند، اکنون به همدستی در نقض حقوق بشر و استفاده از اطلاعات برای نسل‌کشی متهم شده است.

این موضوع نه‌تنها اعتبار متا را زیر سوال می‌برد، بلکه به اهمیت وجود قوانین سخت‌گیرانه برای نظارت بر عملکرد پلتفرم‌های فناوری تأکید می‌کند. پلتفرم‌هایی مانند واتس‌اپ و سیستم‌های هوش مصنوعی به سلاح‌هایی پنهان در جنگ‌های مدرن تبدیل شده‌اند. از سانسور محتوا و تصویرسازی مغرضانه گرفته تا نقض حریم خصوصی و همدستی در حملات نظامی، این پلتفرم‌ها نقشی کلیدی در تشدید بحران انسانی ایفا می‌کنند.

از این رو ضروری است که نهادهای بین‌المللی، با وضع قوانین و نظارت‌های جدی‌تر، پلتفرم‌های فناوری را به پاسخگویی وادار کنند تا از سوءاستفاده از داده‌های کاربران برای اهداف نظامی و نقض حقوق بشر جلوگیری شود. در غیر این صورت، دنیای دیجیتال به میدان جنگی خطرناک‌تر از گذشته تبدیل خواهد شد!

انتهای پیام/

source

لینک کوتاه : https://ofoghnews.ir/?p=420814

برچسب ها

نوشته های مشابه

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : ۰
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.

آمار کرونا
[cov2019]