همگرایی نظامی و تجاری در توسعه هوش مصنوعی (Dual-Use Dynamics: Military–Commercial Convergence in Artificial Intelligence)

5 مهر 1404 - خواندن 4 دقیقه - 42 بازدید

باسمه تعالی



در سال های اخیر، خط میان توسعه تجاری و نظامی در زمینه هوش مصنوعی به طور فزاینده ای در حال محوشدن است. شرکت های فناوری خصوصی به صورت مستقیم در پروژه هایی مشارکت دارند که از هوش مصنوعی برای مقاصد نظامی و اطلاعاتی به ویژه از طریق «مدل های بزرگ زبانی[1]» استفاده می کنند.

برخی از شرکت ها مانند "Palantir"، "Anduril" و "Scale AI" خود را به عنوان واسطه هایی معرفی کرده اند که فناوری های هوش مصنوعی پیشرفته را با نیازهای مشخص دفاعی سازگار می کنند. این شرکت ها نه تنها زیرساخت های نرم افزاری و سخت افزاری را فراهم می کنند، بلکه مدل های زبانی بزرگ را نیز برای کاربردهای نظامی خاص از جمله تحلیل اطلاعات، عملیات میدانی، شناسایی هدف و تصمیم سازی رزمی تنظیم و سفارشی سازی می کنند.


در همین حال، وزارت دفاع آمریکا به طور فعالانه در حال تدوین دکترین های رزمی جدیدی است که مبتنی بر فناوری های هوش مصنوعی هستند. این دکترین ها به گونه ای طراحی شده اند که از ابزارهای خودکار و نیمه خودکار، برای تسریع فرایندهای تصمیم گیری، بهبود قابلیت های اطلاعاتی و افزایش کارایی در میدان نبرد بهره برداری کنند.


همچنین، ارتش آمریکا از طریق قراردادهای بزرگ ابری[2]، زیرساخت های رایانش تجاری را برای کاربردهای نظامی به کار گرفته است. به عنوان مثال، پروژه "Nimbus" در رژیم صهیونیستی و پروژه «توانمندی ابری مشترک جنگی[3]» در آمریکا، نمایانگر حرکت به سوی بهره گیری از قدرت ابری شرکت های تجاری برای عملیات دفاعی است. این پروژه ها به دولت ها امکان می دهند تا از ظرفیت مقیاس پذیر و پیشرفته شرکت هایی مانند "Google"، "Amazon" و "Microsoft" برای ذخیره سازی، پردازش و تحلیل داده های حساس نظامی بهره بگیرند.


نکته نگران کننده این است که بسیاری از کاربردهای مدل های زبانی بزرگ ذاتا دو منظوره هستند. به این معنا که همان مدلی که برای خدمات مشتری، پردازش زبان طبیعی یا چت بات های تجاری استفاده می شود، می تواند به سادگی برای کاربردهای نظامی مانند شناسایی تهدید یا مراقبت میدانی نیز به کار گرفته شود. این مسئله باعث می شود که مرز میان استفاده غیرنظامی و نظامی بسیار شکننده شود و خطر سوءاستفاده یا بی توجهی به ملاحظات اخلاقی افزایش یابد.


علاوه بر این، فقدان شفافیت و پاسخگویی یکی از نگرانی های اساسی است. بسیاری از قراردادهای منعقدشده بین شرکت های فناوری و نهادهای نظامی در سکوت یا با حداقل اطلاع رسانی عمومی انجام می شوند. این روند، امکان نظارت دموکراتیک و بررسی حقوقی یا اخلاقی کاربردهای نظامی هوش مصنوعی را به شدت محدود می سازد. به ویژه زمانی که فناوری های حساس در اختیار نهادهایی قرار می گیرند که از مکانیسم های شفاف پاسخگویی عمومی مستثنا هستند، خطرات احتمالی برای حقوق مدنی و کنترل دموکراتیک افزایش می یابد.



........................................................................................................................

کانال حکومت الکترونیک (در پیام رسان بله):

https://ble.ir/electronicgovernment (آدرس در صفحه مرورگر کپی شده یا در پیام رسان بله جستجو شود)


کانال موسسه مشاوره مدیریت نگاه (در پیام رسان تلگرام):

https://t.me/Institute_Consulting_Negah


........................................................................................................................

[1] Large Language Models (LLMs)

[2] Large-scale cloud infrastructure contracts

[3] Joint Warfighting Cloud Capability (JWCC)