مایکل دوایر/AP
لندن – مذاکره کنندگان اتحادیه اروپا روز جمعه بر سر اولین قوانین جامع هوش مصنوعی جهان به توافق رسیدند و راه را برای نظارت قانونی بر فناوری هوش مصنوعی که وعده تغییر زندگی روزمره را داده و هشدارهایی را درباره خطرات وجودی برای بشریت ایجاد کرده است، هموار کرد.
مذاکره کنندگان پارلمان اروپا و 27 کشور عضو اتحادیه بر اختلافات بزرگ بر سر نکات بحث برانگیز از جمله هوش مصنوعی مولد و استفاده پلیس از نظارت تشخیص چهره برای امضای یک توافقنامه سیاسی آزمایشی برای قانون هوش مصنوعی غلبه کردند.
“معامله!” کمی قبل از نیمه شب، کمیسر اروپایی، تیری برتون توییت کرد. اتحادیه اروپا اولین قاره ای است که قوانین روشنی برای استفاده از هوش مصنوعی وضع می کند.
این نتیجه پس از مذاکرات ماراتن پشت درهای بسته این هفته به دست آمد که جلسه اولیه 22 ساعت قبل از شروع دور دوم صبح جمعه به طول انجامید.
مقامات برای تضمین یک پیروزی سیاسی برای قانون اصلی زیر اسلحه بودند. با این حال، گروههای جامعه مدنی از آن استقبال خوبی کردند زیرا منتظر جزئیات فنی هستند که باید در هفتههای آینده بررسی شوند. آنها گفتند که این قرارداد به اندازه کافی برای محافظت از مردم در برابر آسیب های ناشی از سیستم های هوش مصنوعی پیش نمی رود.
دانیل فریدلندر، رئیس دفتر اروپایی انجمن صنعت ارتباطات و کامپیوتر، یک گروه لابی صنعت فناوری، گفت: «توافق سیاسی امروز آغاز کار فنی مهم و ضروری بر روی جزئیات مهم قانون هوش مصنوعی است که هنوز گم شدهاند.
اتحادیه اروپا با رونمایی از اولین پیش نویس قوانین خود در سال 2021، در رقابت جهانی برای طراحی نرده های محافظ هوش مصنوعی پیشتاز شد. با این حال، رونق اخیر در هوش مصنوعی مولد، مقامات اروپایی را به تلاش برای به روز رسانی پیشنهادی که آماده است به عنوان یک طرح اولیه عمل کند، برانگیخت. برای جهان.
براندو بنیفی، یک قانونگذار ایتالیایی که در تلاشهای مذاکراتی این نهاد رهبری میکند، اواخر روز جمعه به آسوشیتدپرس گفت: پارلمان اروپا همچنان باید در اوایل سال آینده در مورد این قانون رأیگیری کند، اما با انجام این توافق، این یک امر رسمی است.
او پس از این که از او پرسیده شد که آیا شامل همه چیزهایی است که میخواهد یا خیر، گفت: خیلی خیلی خوب است. بدیهی است که ما مجبور بودیم برخی مصالحه ها را بپذیریم، اما در کل بسیار خوب است. قانون نهایی تا سال 2025 به طور کامل اجرایی نخواهد شد و جریمه های مالی سختی را برای تخلفات تا 35 میلیون یورو (38 میلیون دلار) یا 7 درصد از گردش مالی جهانی یک شرکت تهدید می کند.
سیستمهای هوش مصنوعی مولد مانند ChatGPT OpenAI در آگاهی جهان منفجر شدهاند و کاربران را با توانایی تولید متنها، عکسها و آهنگهای شبیه انسان خیره کردهاند، اما نگرانیهایی را در مورد خطراتی که این فناوری به سرعت در حال توسعه برای مشاغل، حریم خصوصی و حفاظت از حق چاپ و حتی زندگی انسان ایجاد میکند افزایش داده است. خود
اکنون، ایالات متحده، بریتانیا، چین و ائتلافهای جهانی مانند گروه 7 دموکراسیهای بزرگ با پیشنهادات خود برای تنظیم مقررات هوش مصنوعی وارد عمل شدهاند، هرچند که هنوز در حال رسیدن به اروپا هستند.
آنو برادفورد، استاد دانشکده حقوق کلمبیا که متخصص قوانین اتحادیه اروپا و مقررات دیجیتال است، گفت: قوانین قوی و جامع اتحادیه اروپا “می تواند الگوی قدرتمندی برای بسیاری از دولت هایی باشد که مقررات را در نظر می گیرند.” سایر کشورها “ممکن است از هر ماده ای کپی نکنند، اما احتمالاً بسیاری از جنبه های آن را تقلید خواهند کرد.”
او گفت که شرکت های هوش مصنوعی مشمول قوانین اتحادیه اروپا نیز احتمالا برخی از این تعهدات را در خارج از قاره تمدید خواهند کرد. او گفت: «در هر حال، آموزش مجدد مدلهای جداگانه برای بازارهای مختلف کارآمد نیست.
قانون هوش مصنوعی در ابتدا برای کاهش خطرات ناشی از عملکردهای خاص هوش مصنوعی بر اساس سطح خطر، از کم تا غیرقابل قبول طراحی شده بود. اما قانونگذاران تلاش کردند تا آن را به مدلهای بنیادی گسترش دهند، سیستمهای پیشرفتهای که زیربنای سرویسهای هوش مصنوعی عمومی مانند ChatGPT و چت ربات Bard Google هستند.
به نظر میرسد مدلهای پایه یکی از بزرگترین مشکلات اروپا باشد. با این حال، علیرغم مخالفت های فرانسه که در عوض خواستار خودتنظیمی برای کمک به شرکت های بومی اروپایی هوش مصنوعی مولد در رقابت با رقبای بزرگ آمریکایی از جمله مایکروسافت حامی OpenAI بود، مذاکره کنندگان در اوایل مذاکرات موفق شدند به یک مصالحه آزمایشی برسند.
این سیستمها که بهعنوان مدلهای زبان بزرگ نیز شناخته میشوند، بر روی مجموعهای از آثار مکتوب و تصاویری که از اینترنت حذف شدهاند، آموزش داده میشوند. آنها بر خلاف هوش مصنوعی سنتی که داده ها را پردازش می کند و وظایف را با استفاده از قوانین از پیش تعیین شده تکمیل می کند، به سیستم های هوش مصنوعی مولد توانایی ایجاد چیز جدیدی می دهند.
شرکتهایی که مدلهای بنیاد را میسازند باید مستندات فنی را تهیه کنند، با قانون حق چاپ اتحادیه اروپا مطابقت داشته باشند و محتوای مورد استفاده برای آموزش را به تفصیل شرح دهند. پیشرفتهترین مدلهای بنیادی که «خطرات سیستمی» را به همراه دارند، از جمله ارزیابی و کاهش این خطرات، گزارش حوادث جدی، اعمال تدابیر امنیت سایبری و گزارش کارآیی انرژی آنها، با بررسیهای بیشتری مواجه خواهند شد.
محققان هشدار دادهاند که مدلهای پایه قدرتمند، ساخته شده توسط تعداد انگشت شماری از شرکتهای بزرگ فناوری، میتوانند برای افزایش اطلاعات نادرست آنلاین و دستکاری، حملات سایبری یا ایجاد سلاحهای زیستی مورد استفاده قرار گیرند.
گروههای حقوقی همچنین هشدار میدهند که عدم شفافیت در مورد دادههای مورد استفاده برای آموزش مدلها خطراتی را برای زندگی روزمره ایجاد میکند، زیرا آنها به عنوان ساختارهای اساسی برای توسعهدهندگان نرمافزاری عمل میکنند که خدمات مبتنی بر هوش مصنوعی را ایجاد میکنند.
آنچه که تبدیل به مهمترین موضوع شد، سیستمهای نظارتی تشخیص چهره مبتنی بر هوش مصنوعی بود و مذاکرهکنندگان پس از چانهزنی فشرده به مصالحه دست یافتند.
قانونگذاران اروپایی خواهان ممنوعیت کامل استفاده عمومی از اسکن چهره و سایر سیستمهای “شناسایی بیومتریک از راه دور” به دلیل نگرانیهای مربوط به حریم خصوصی هستند. اما دولت های کشورهای عضو موفق به مذاکره در مورد معافیت ها شدند تا مجریان قانون بتوانند از آنها برای مقابله با جنایات جدی مانند بهره کشی جنسی از کودکان یا حملات تروریستی استفاده کنند.
گروههای حقوقی گفتند که آنها نگران معافیتها و سایر نقاط ضعف بزرگ در قانون هوش مصنوعی هستند، از جمله عدم حفاظت از سیستمهای هوش مصنوعی مورد استفاده در مهاجرت و کنترل مرزها، و گزینهای برای توسعهدهندگان برای انصراف از طبقهبندی سیستمهای خود به عنوان پرخطر.
دانیل لوفر، تحلیلگر ارشد سیاست در گروه حقوق دیجیتال Access Now، گفت: «پیروزیها در این مذاکرات نهایی هر چه بوده باشد، واقعیت این است که نقصهای بزرگی در متن نهایی باقی خواهد ماند.