به نقل از دیسکاورمگزین رهبران و دانشمندان برجسته فناوری، نامه های سرگشاده ای را منتشر کرده اند که خواهان ممنوعیت سلاح های اتمسفری مرگبار شده توسط فن آوری های هوش مصنوعی هستند. اما گروهی از محققان AI اخیرا با استفاده از تهدید تحریم، یک گام به جلو رفتند تا دانشگاه را از توسعه فناوری های روباتی قاتل باز دارند. این همه در اواخر فوریه آغاز شد، زمانی که یک مقاله کره ای تایمز در مورد یک شرکت پیشرو در زمینه ی کره جنوبی، با یک دانشگاه تحقیقاتی عمومی، برای توسعه سلاح های نظامی AI که قادر به کنترل بدون نظارت بر انسان بود، گزارش داد. در ماه مارس، یک گروه از بیش از ۵۰ محققان AI از ۳۰ کشور، یک نامه سرگشاده به آدرس KAIST، دانشگاه کره جنوبی درگیر در پروژه سلاح های کشتار جمعی AI امضا کرده بودند که اعلام کردن که امضا کنندگان هرگونه همکاری پژوهشی با دانشگاه را تحریم می کنند. Yoshua Bengio، استاد علوم رایانه در دانشگاه مونترال در کانادا و پیشگام در تحقیق در زمینه یادگیری عمیق، گفت: “بسیار مهم است که دانشگاهیانی که علم پشت AI را توسعه می دهند به گونه ای عمل کنند که این علم برای بشریت مورد استفاده قرار گیرد.”
“در این مورد، این مربوط به یک دانشگاه بود و یک معامله عمده برای ایجاد روبات های قاتل به طور بالقوه“.را شامل می شد. مقاله کره ای تایمز، پروژه مشترک بین KAIST که قبلا موسسه تحقیقاتی کره پیشرفته و علم و فناوری و شرکت دفاعی Hanhwa Systems بود، را هدف قرار دادن فناوری هوش مصنوعی (AI) برای استفاده از سلاح های نظامی معرفی کرد که می تواند شامل یک موشک مبتنی بر AI، زیردریایی های بدون سرنشین AI و quadcopters مسلح باشد.
این مقاله همچنین چنین سلاح های مستقل را به عنوان سلاحهای قادر به جستجو و حذف اهداف بدون کنترل انسانی تعریف می کند. قدرت های عمده نظامی مانند ایالات متحده، چین و روسیه تکنولوژی های AI را توسعه داده اند که می تواند منجر به سلاح های اتمی مستقل شود. برخی از سلاح های مستقل موجود می توانند به طور خودکار بر روی اهداف نظارت کنند، از جمله برج های اسلحه ای یا اسلحه های طراحی شده برای شلیک موشک های هواپیما یا هواپیما. با این حال، نیروهای نظامی از این ظرفیت های دفاعی استفاده می کنند و معمولا “در حلقه” انسان را به رسمیت می شناسند تا تصمیم نهایی در مورد استفاده از چنین سلاح هایی علیه اهداف را بپذیرد. بسیاری از محققان AI و رباتیک امیدوارند که توسعه گسترده ای از روبات های قاتل و یا هواپیماهای بدون سرنشین که برای کشتن بدون نیاز به یک انسان به منظور سفارش دادن، اقدام به کشتن کنند را شاهد باشیم. سازمان های غیر دولتی همچنین سازماندهی شده اند تا سلاح های خودمختار مرگبار را از طریق مبارزات انتخاباتی به منظور جلوگیری از رواج روبات های قاتل، ممنوع کنند. حتی سازمان ملل متحد یک سری از جلسات سالیانه را برای بحث در مورد سلاح های اتمسفری مرگبار برگزار کرده است.
موفقیت ظاهری تحریم پیشنهادی می تواند الهام بخش مبارزات آینده برای پیروزی در راه است. اما بسیاری از دانشگاه ها به احتمال زیاد دو بار در مورد پیگیری پروژه های تحقیقاتی مشابهی که می تواند منجر به سلاح های خودکشی کشنده شود، دو باره فکر کنند. راسل یادآور شد که جامعه تحقیقاتی AI باید مراقب باشند.
راسل گفت: “خلاف انصراف از قرارداد خود، این بهترین بود که ما برای آن امیدوار بودیم.” “بسیاری از امضاکنندگان پیشنهاد کرده اند که ما باید به کارهایی که در KAIST انجام داده ایم تاکید کنیم که آیا اعلامیه رئیس جمهور معنی دارد.”
به همین ترتیب، Bengio خود را با پاسخ KAIST به حال حاضر راضی است. او همچنین در صورت لزوم به نظر ایده استفاده از تحریم تحقیقاتی در آینده مطلوب بود.
Bengio گفت: “حتی اگر این کار تمام وقت کار نکند، ارزش آن را دارد.” “مهمترین اثر جانبی این است که آموزش مردم، دولت ها و سازمان ها در مورد جنبه های اخلاقی استفاده (یا استفاده نادرست از AI) را داشته باشد.”