نقش هوش مصنوعی کلاود در دستگیری مادورو
اقتصاد ایران: طبق گزارشها، مدل هوش مصنوعی Claude متعلق به شرکت Anthropic در عملیات نظامی ایالات متحده برای دستگیری نیکلاس مادورو در ماه گذشته مورد استفاده قرار گرفته است.
به گزارش خبرگزاری اقتصاد ایران، لحظاتی وجود دارند که فناوری بهصورت نامحسوس از یک مرز عبور میکند. به نظر میرسد این نیز یکی از همان لحظات باشد. مدل هوش مصنوعی Claude متعلق به Anthropic، سامانهای که عمدتاً برای نگارش ایمیل، تحلیل اسناد و پاسخگویی به پرسشها شناخته میشود، بنا بر اظهارات افرادی مطلع، در یک عملیات نظامی ایالات متحده با هدف بازداشت نیکلاس مادورو، رئیسجمهور ونزوئلا، مورد استفاده قرار گرفته است. این مأموریت که در ماه گذشته انجام شد، شامل بمباران چندین نقطه در کاراکاس بود و مادورو و همسرش را هدف قرار داد.
جزئیات مربوط به نحوه استفاده از Claude همچنان نامشخص باقی مانده است. با این حال، صرف این واقعیت که یک مدل تجاری هوش مصنوعی راه خود را به یک عملیات نظامی باز کرده، موضوعی نیست که بتوان آن را نادیده گرفت.
سخنگوی Anthropic به WSJ گفت: «ما نمیتوانیم در خصوص اینکه آیا Claude یا هر مدل هوش مصنوعی دیگری در هر عملیات خاص، مورد استفاده قرار گرفته یا خیر، اظهارنظر کنیم. هرگونه استفاده از Claude، چه در بخش خصوصی و چه در نهادهای دولتی، ملزم به رعایت سیاستهای استفاده ما است که نحوه استقرار آن را تنظیم میکند. ما از نزدیک با شرکای خود همکاری میکنیم تا از انطباق اطمینان حاصل شود.»
آنچه این موضوع را بهطور ویژه قابل توجه میسازد، دستورالعملهای داخلی خود Anthropic است. راهنمای استفاده این شرکت، بهکارگیری Claude برای تسهیل خشونت، توسعه سلاح یا انجام نظارت را ممنوع میکند. با این حال، عملیات مورد بحث شامل بمباران چندین موقعیت در کاراکاس بوده است. این تضاد میان سیاستهای مکتوب و واقعیتهای میدان نبرد اکنون در کانون یک مناقشه قرار گرفته است.
Anthropic نخستین توسعهدهنده مدل هوش مصنوعی بود که سامانه آن در عملیاتهای طبقهبندیشده توسط وزارت دفاع آمریکا مورد استفاده قرار گرفته است. این احتمال وجود دارد که سایر ابزارهای هوش مصنوعی نیز در مأموریت ونزوئلا برای وظایف غیرطبقهبندیشده به کار گرفته شده باشند. در محیطهای نظامی، چنین سامانههایی میتوانند در تحلیل حجم عظیمی از اسناد، تولید گزارشها یا حتی پشتیبانی از سامانههای پهپاد خودران ایفای نقش کنند.
برای شرکتهای فعال در حوزه هوش مصنوعی که در صنعتی متراکم و با ارزشگذاری بالا رقابت میکنند، پذیرش از سوی نهادهای نظامی اهمیت قابل توجهی دارد؛ چرا که نشانهای از اعتماد و توانمندی فنی تلقی میشود. در عین حال، این امر مخاطرات اعتباری نیز به همراه دارد.
داریو آمودی، مدیرعامل Anthropic، بهصورت علنی درباره خطرات ناشی از سامانههای پیشرفته هوش مصنوعی سخن گفته و خواستار ایجاد سازوکارهای حفاظتی قویتر و مقرراتگذاری سختگیرانهتر شده است. او نگرانی خود را نسبت به استفاده از هوش مصنوعی در عملیاتهای مرگبار خودمختار و نظارت داخلی ابراز کرده است؛ دو حوزهای که بنا بر گزارشها به نقاط اختلاف در مذاکرات قراردادی با پنتاگون تبدیل شدهاند.
قرارداد ۲۰۰ میلیون دلاری که تابستان گذشته به Anthropic اعطا شد، اکنون تحت بررسی دقیق قرار گرفته است. گزارشهای پیشین نشان دادهاند که نگرانیهای داخلی در این شرکت درباره نحوه استفاده احتمالی نظامیان از Claude، برخی مقامات دولتی را به بررسی امکان لغو این توافق سوق داده است. / دیجینوی.