تنظیمات
تصویر
مشخصات خبر
اندازه فونت :
چاپ خبر
شاخه : فناوری
لینک : econews.ir/5x4292777
شناسه : 4292777
تاریخ :
نقش هوش مصنوعی کلاود در دستگیری مادورو اقتصاد ایران: طبق گزارش‌ها، مدل هوش مصنوعی Claude متعلق به شرکت Anthropic در عملیات نظامی ایالات متحده برای دستگیری نیکلاس مادورو در ماه گذشته مورد استفاده قرار گرفته است.

به گزارش خبرگزاری اقتصاد ایران، لحظاتی وجود دارند که فناوری به‌صورت نامحسوس از یک مرز عبور می‌کند. به نظر می‌رسد این نیز یکی از همان لحظات باشد. مدل هوش مصنوعی Claude متعلق به Anthropic، سامانه‌ای که عمدتاً برای نگارش ایمیل، تحلیل اسناد و پاسخ‌گویی به پرسش‌ها شناخته می‌شود، بنا بر اظهارات افرادی مطلع، در یک عملیات نظامی ایالات متحده با هدف بازداشت نیکلاس مادورو، رئیس‌جمهور ونزوئلا، مورد استفاده قرار گرفته است. این مأموریت که در ماه گذشته انجام شد، شامل بمباران چندین نقطه در کاراکاس بود و مادورو و همسرش را هدف قرار داد.

جزئیات مربوط به نحوه استفاده از Claude همچنان نامشخص باقی مانده است. با این حال، صرف این واقعیت که یک مدل تجاری هوش مصنوعی راه خود را به یک عملیات نظامی باز کرده، موضوعی نیست که بتوان آن را نادیده گرفت.

سخنگوی Anthropic به WSJ گفت: «ما نمی‌توانیم در خصوص اینکه آیا Claude یا هر مدل هوش مصنوعی دیگری در هر عملیات خاص، مورد استفاده قرار گرفته یا خیر، اظهارنظر کنیم. هرگونه استفاده از Claude، چه در بخش خصوصی و چه در نهادهای دولتی، ملزم به رعایت سیاست‌های استفاده ما است که نحوه استقرار آن را تنظیم می‌کند. ما از نزدیک با شرکای خود همکاری می‌کنیم تا از انطباق اطمینان حاصل شود.»

آنچه این موضوع را به‌طور ویژه قابل توجه می‌سازد، دستورالعمل‌های داخلی خود Anthropic است. راهنمای استفاده این شرکت، به‌کارگیری Claude برای تسهیل خشونت، توسعه سلاح یا انجام نظارت را ممنوع می‌کند. با این حال، عملیات مورد بحث شامل بمباران چندین موقعیت در کاراکاس بوده است. این تضاد میان سیاست‌های مکتوب و واقعیت‌های میدان نبرد اکنون در کانون یک مناقشه قرار گرفته است.

Anthropic نخستین توسعه‌دهنده مدل هوش مصنوعی بود که سامانه آن در عملیات‌های طبقه‌بندی‌شده توسط وزارت دفاع آمریکا مورد استفاده قرار گرفته است. این احتمال وجود دارد که سایر ابزارهای هوش مصنوعی نیز در مأموریت ونزوئلا برای وظایف غیرطبقه‌بندی‌شده به کار گرفته شده باشند. در محیط‌های نظامی، چنین سامانه‌هایی می‌توانند در تحلیل حجم عظیمی از اسناد، تولید گزارش‌ها یا حتی پشتیبانی از سامانه‌های پهپاد خودران ایفای نقش کنند.

برای شرکت‌های فعال در حوزه هوش مصنوعی که در صنعتی متراکم و با ارزش‌گذاری بالا رقابت می‌کنند، پذیرش از سوی نهادهای نظامی اهمیت قابل توجهی دارد؛ چرا که نشانه‌ای از اعتماد و توانمندی فنی تلقی می‌شود. در عین حال، این امر مخاطرات اعتباری نیز به همراه دارد.

داریو آمودی، مدیرعامل Anthropic، به‌صورت علنی درباره خطرات ناشی از سامانه‌های پیشرفته هوش مصنوعی سخن گفته و خواستار ایجاد سازوکارهای حفاظتی قوی‌تر و مقررات‌گذاری سخت‌گیرانه‌تر شده است. او نگرانی خود را نسبت به استفاده از هوش مصنوعی در عملیات‌های مرگبار خودمختار و نظارت داخلی ابراز کرده است؛ دو حوزه‌ای که بنا بر گزارش‌ها به نقاط اختلاف در مذاکرات قراردادی با پنتاگون تبدیل شده‌اند.

قرارداد ۲۰۰ میلیون دلاری که تابستان گذشته به Anthropic اعطا شد، اکنون تحت بررسی دقیق قرار گرفته است. گزارش‌های پیشین نشان داده‌اند که نگرانی‌های داخلی در این شرکت درباره نحوه استفاده احتمالی نظامیان از Claude، برخی مقامات دولتی را به بررسی امکان لغو این توافق سوق داده است. / دیجینوی.