تنظیمات
تصویر
مشخصات خبر
اندازه فونت :
چاپ خبر
شاخه : فناوری
لینک : econews.ir/5x3654665
شناسه : 3654665
تاریخ :
مقررات هوش مصنوعی با تناقضات بسیاری مواجه‌اند اقتصاد ایران: یک نشریه آمریکایی از تناقض‌های موجود در مقررات مربوط به فناوری نوین هوش مصنوعی و لزوم به‌روزرسانی مداوم آنها نوشت.

به گزارش خبرگزاری اقتصادایران ، نشریه «هیل» در مقاله‌ای با عنوان «پارادوکس ذاتی مقررات هوش مصنوعی» نوشت: روزی نیست که ما درباره مقررات جدید هوش مصنوعی (AI) چیزی نیاموزیم و این تعجب‌آور نیست، زیرا هوش مصنوعی به‌عنوان قدرتمندترین فناوری قرن بیست‌ویکم معرفی می‌شود.

 
اما به این دلیل که هیچ تعریف توافق شده‌ای از هوش مصنوعی وجود ندارد و چشم‌انداز آن دائما در حال رشد است، بسیاری از مقررات جدید این فناوری در تناقض غوطه‌ور هستند.
 
در میان چنین تناقض‌های نظارتی، تمایل به مقررات‌گذاری برای یک فعالیت که با استفاده از هوش مصنوعی انجام می‌شود، تنها در زمانی وجود دارد که از دیدگاه کاربر نهایی، آن فعالیت انجام نشده باشد.
 
به عنوان مثال جعل هویت و تقلید از افراد مشهور و سیاستمداران، از زمان‌های قدیم وجود داشته و معمولا اقدام قابل قبولی در نظر گرفته می‌شود.
 
با این حال، ممکن است به سمت محیطی حرکت کنیم که در آن، تقلیدکننده انسان و جعل هویتِ انجام‌شده توسط هوش مصنوعی که یکسان به نظر می‌رسند و دقیقاً همان کار‌ها را انجام می‌دهند، برای اهداف نظارتی، کاملاً متفاوت طبقه‌بندی می‌شوند.
 
«لینا خان» رئیس کمیسیون تجارت فدرال آمریکا (FTC) در تلاش است تا به چنین تناقض‌هایی در مقررات نوظهور هوش مصنوعی این کمیسیون رسیدگی کند.
 
به گفته او، در این مرحله می‌توانیم مدل هوش مصنوعی «زبان بزرگ» یا LLGAI را ببینیم، زیرا رایانه‌ها از اینترنت برای جمع‌آوری میلیون‌ها داده استفاده و سپس دستورالعمل‌ها، متون، تصاویر، ویدئو‌ها و فایل‌های صوتی پیچیده تولید می‌کنند. این فناوری می‌تواند حوزه‌های مختلفی مانند پزشکی را دچار آسیب کند و این خطر باعث آسیب به مردم است.
 
تشخیص جعل هویت مخرب و در عین حال بی‌نقص LLGAI مثلاً یک مقام دولتی که دیگران را فریب می‌دهد، دشوار نیست.
 
سناریو‌های ترسناک، اما واقع‌بینانه هوش مصنوعی به طور قابل توجهی، دولت‌ها را به سمت ایجاد مقررات برای مصرف کننده قبل از وقوع فاجعه سوق داده است.
 
اما یک مشکل نادیده گرفته‌شده در اینجا وجود دارد؛ از آنجا که ما در مرحله اولیه، مصرف‌کننده LLGAI هستیم، هر مقرراتی که اکنون ایجاد می‌شود بر اساس چیز‌های کمی است که امروز می‌دانیم و با چنین فناوری در حال تحولی، آنچه در سال ۲۰۲۴ کاملاً منطقی است، ممکن است تا سال ۲۰۲۹ نامربوط یا معکوس باشد.
 
این اولین باری نیست که فناوری‌ها خطرات زیادی ایجاد می‌کنند.
 
بین سال‌های ۱۹۱۵ و ۱۹۳۰، اتومبیل‌های بنزینی در آمریکا از حدود ۲ میلیون مصرف‌کننده به یک وسیله حمل‌ونقل رایج با حدود ۲۳ میلیون کاربر تبدیل شدند.
 
بسیاری از دولت‌ها، مقررات مربوط به خودرو را در دهه ۱۹۱۰ وضع کردند. این مقررات از روزی که توسعه یافتند منطقی بودند، اما نتایج نشان می‌دهد که تنظیم یک فناوری انقلابی و سریع در دوران ابتدایی آن چقدر دشوار است.
 
در سال ۱۹۱۵، یک مسئله نظارتی عمده، تعامل خودرو با اسب‌ها و کالسکه‌ها بود. تنظیم‌گر‌ها در سال ۱۹۱۵ می‌توانستند درباره پارکینگ‌ها، پمپ‌بنزین‌ها و خطوط عابر چه بگویند؟
 
لازم نیست به یک قرن پیش برگردیم تا درک کنیم که تنظیم کردن فناوری‌های مصرفی نوظهور در دوران ابتدایی آنها چقدر دشوار است.
 
در دهه ۱۹۹۰، فناوری اینترنت برای عموم مردم فراهم شد. به سرعت مشخص شد که این فناوریِ نوظهور، امکان ارتباطات جهانی بین افراد یا گروه‌ها را با استفاده از متن، تصویر، ویدئو، صدا و ... فراهم می‌کند.
 
قانون‌گذاران در آن زمان شروع به ایجاد قوانین و مقرراتی برای اینترنت کردند، اما تقریباً همه تصورات از آینده اینترنت اشتباه بود.
 
در واقع بسیاری از ما فکر می‌کردیم که اینترنت سال ۲۰۲۴ بسیار شبیه اینترنت سال ۱۹۹۵ است، فقط در مقیاس بزرگ‌تر، در نتیجه، تعداد اندکی از قوانین اینترنت که در دهه ۱۹۹۰ ابداع شدند، امروز دقیقاً به همان شکل استفاده می‌شوند.
 
مهم‌ترین درسی که باید از تلاش‌های دهه ۱۹۱۰ برای تنظیم صنعت خودرو و تلاش‌های دهه ۱۹۹۰ برای تنظیم صنعت اینترنت بیاموزیم، این است که قانون‌گذاران باید خِرد کافی داشته باشند تا بدانند مقررات امروزی می‌تواند سال‌ها بعد بی‌معنا یا حتی معکوس باشد. 
 
راه حل این است که قانونگذاران هر چند سال یک بار، قوانین و مقررات هوش مصنوعی خود را تغییر داده و بر اساس شرایط فعلی آن را تکامل دهند.
 
مقررات هوش مصنوعی هم باید به طور مداوم بازبینی، به‌روز و بازنویسی شوند. 
 
طبیعتا انتظار نمی‌رود که قواعدی که در دوران ابتدایی هوش مصنوعی ایجاد شده، دائمی باشد.
 
دست‌کم یک نگاه گذرا به مدل هوش مصنوعی LLGAI نشان می‌دهد که هیچ چیز در مورد آن پایدار نیست.