Skip links

قانون هوش مصنوعي اتحاديه اروپا

بررسي و تحليل قانون هوش مصنوعي اتحاديه اروپا

قانون هوش مصنوعی اتحادیه اروپا

معرفی:

قانون هوش مصنوعی اتحادیه اروپا (AI Act) که در ۱۳ ژوئن ۲۰۲۴ تصویب شد، به منظور تنظیم استفاده از سیستم‌های هوش مصنوعی و تعادل بین نوآوری و حقوق شهروندان طراحی شده است.

١. رويكرد مبتني بر ريسك:

سیستم‌های هوش مصنوعی بر اساس سطح ریسک به چهار دسته تقسیم می‌شوند: غیرقابل قبول (ممنوع)، بالا، محدود و حداقل.

٢. ممنوعيت ها:

برخی کاربردهای هوش مصنوعی، مانند سیستم‌های امتیازدهی اجتماعی و نظارت بیومتریک، ممنوع شده‌اند تا از نقض حقوق شهروندان جلوگیری شود.

٣. الزامات براي سيستمهاي پرخطر:

این سیستم‌ها باید الزامات دقیقی در زمینه کیفیت داده، مستندسازی، شفافیت و نظارت انسانی رعایت کنند.

٤. تعهدات شفافيت:

تمام سیستم‌های هوش مصنوعی باید به کاربران اطلاع دهند که با یک سیستم هوش مصنوعی در تعامل هستند.

٥. مقررات براي مدل هاي عمومي:

مدل‌های هوش مصنوعی عمومی باید تحت مقررات خاصی برای مدیریت ریسک‌ها قرار گیرند.

٦. ساختار حاكميتي:

هیئت اروپایی، دفتر هوش مصنوعی اروپا و مقامات ملی نظارت و اجرای مؤثر قانون را تضمین می‌کنند.

٧. سندباكسهاي نظارتي:

فضاهای آزمایشی تحت نظارت به شرکت‌ها اجازه می‌دهند تا فناوری‌های جدید را بدون ریسک‌های قانونی آزمایش کنند.

٨. حمايت از SME ها و استارتاپ ها:

مقررات خاص برای حمایت از شرکت‌های کوچک و متوسط و استارتاپ‌ها وجود دارد.

٩. تمركز بر حقوق اساسي:

قانون بر حفاظت از حقوق اساسی، از جمله حریم خصوصی، عدم تبعیض و کرامت انسانی تأکید دارد.

١٠. مكانيسم هاي اجرا و جريمه:

جریمه‌های سنگین برای نقض قانون تا ۳۵ میلیون یورو یا ۷٪ از گردش مالی جهانی تعیین شده است.

١١. بازنگري و به روزرساني منظم:

قانون شامل مکانیسم‌هایی برای بازنگری و به‌روزرسانی منظم با پیشرفت‌های فناوری است.

١٢. تعامل با ساير قوانين اتحاديه اروپا:

قانون با GDPR و قوانین خدمات دیجیتال هماهنگ شده است.

١٣. توجه به پايداري زيست محيطي:

ترویج سیستم‌های سازگار با محیط زیست بخشی از قانون است.

١٤. حمايت از حقوق كارگران:

مقررات خاصی برای استفاده از هوش مصنوعی در محیط کار وجود دارد.

١٥. همكاري بين المللي:

قانون بر همکاری با شرکای بین‌المللی برای ایجاد استانداردهای جهانی هوش مصنوعی تأکید دارد.

تاریخچه قانون

تاریخچه شکل‌گیری و اهداف قانون هوش مصنوعی اتحادیه اروپا

۱. پیش‌زمینه (۲۰۱۸-۲۰۱۹):

  • در آوریل ۲۰۱۸، کمیسیون اروپا استراتژی هوش مصنوعی برای اروپا را منتشر کرد.
  • در دسامبر ۲۰۱۸، کمیسیون طرح هماهنگ برای هوش مصنوعی را ارائه داد.
  • در آوریل ۲۰۱۹، گروه کارشناسان سطح بالای هوش مصنوعی، دستورالعمل‌های اخلاقی برای هوش مصنوعی قابل اعتماد را منتشر کرد.

۲. کتاب سفید هوش مصنوعی (فوریه ۲۰۲۰):

  • کمیسیون اروپا کتاب سفیدی درباره هوش مصنوعی منتشر کرد که چارچوب سیاستی برای توسعه هوش مصنوعی در اروپا را ترسیم می‌کرد.
  • این سند، رویکردی مبتنی بر مدیریت ریسک را برای تنظیم قوانین در حوزه هوش مصنوعی پیشنهاد کرد.

۳. مشاوره عمومی (۲۰۲۰):

  • کمیسیون اروپا مشاوره عمومی گسترده‌ای درباره کتاب سفید انجام داد که بیش از ۱۲۰۰ پاسخ دریافت کرد.

۴. قطعنامه پارلمان اروپا (اکتبر ۲۰۲۰):

  • پارلمان اروپا قطعنامه‌ای را تصویب کرد که خواستار تدوین چارچوب قانونی برای جنبه‌های اخلاقی هوش مصنوعی بود.

۵. پیشنهاد اولیه قانون (آوریل ۲۰۲۱):

  • کمیسیون اروپا پیشنهاد اولیه برای قانون هوش مصنوعی را منتشر کرد.

۶. مذاکرات و اصلاحات (۲۰۲۱-۲۰۲۳):

  • پارلمان اروپا و شورای اتحادیه اروپا پیشنهاد را بررسی و اصلاح کردند.
  • گروه‌های مختلف ذی‌نفع، از جمله صنعت، دانشگاهیان و جامعه مدنی نظرات خود را ارائه دادند.

۷. مذاکرات سه‌جانبه (۲۰۲۳):

  • نمایندگان پارلمان، شورا و کمیسیون مذاکرات فشرده‌ای برای رسیدن به توافق نهایی انجام دادند.

۸. توافق سیاسی (دسامبر ۲۰۲۳):

  • در ۸ دسامبر ۲۰۲۳، یک توافق سیاسی موقت بر سر متن نهایی قانون حاصل شد.

۹. تصویب نهایی (۲۰۲۴):

  • پارلمان اروپا و شورا متن نهایی را تصویب کردند.
  • قانون در ۱۳ ژوئن ۲۰۲۴ امضا و نهایی شد.
 

اهداف اصلی قانون هوش مصنوعی اتحادیه اروپا

۱. بهبود عملکرد بازار داخلی:

  • ایجاد یک چارچوب قانونی یکپارچه برای توسعه، بازاریابی، و استفاده از سیستم‌های هوش مصنوعی در اتحادیه اروپا.

۲. ترویج هوش مصنوعی انسان‌محور و قابل اعتماد:

  • اطمینان از اینکه سیستم‌های هوش مصنوعی به ارزش‌ها و حقوق اساسی اتحادیه اروپا احترام می‌گذارند.

۳. حفاظت از سلامت، ایمنی و حقوق اساسی:

  • جلوگیری از آسیب‌های بالقوه سیستم‌های هوش مصنوعی به شهروندان و جامعه.

۴. حمایت از نوآوری:

  • ایجاد محیطی قانونی که نوآوری در هوش مصنوعی را تشویق می‌کند، به ویژه برای شرکت‌های کوچک و متوسط (SMEها) و استارتاپ‌ها.

۵. افزایش اعتماد به هوش مصنوعی:

  • ایجاد اطمینان برای کاربران و مصرف‌کنندگان که سیستم‌های هوش مصنوعی ایمن و قابل اعتماد هستند.

۶. هماهنگ‌ سازی قوانین در سراسر اتحادیه اروپا:

  • جلوگیری از تکه‌تکه شدن بازار داخلی با قوانین ملی متفاوت.

    ٧. تقويت رقابت پذيري جهاني:

    •تبدیل اتحادیه اروپا به رهبر جهانی در توسعه هوش مصنوعی اخلاقی و قابل اعتماد.

۸. حفاظت از محیط زیست:

  • تشویق توسعه سیستم‌های هوش مصنوعی که به اهداف زیست‌محیطی کمک می‌کنند.

۹. ایجاد شفافیت و پاسخگویی:

  • اطمینان از اینکه استفاده از سیستم‌های هوش مصنوعی شفاف است و توسعه‌دهندگان و کاربران آن‌ها پاسخگو هستند.

۱۰. حمایت از دموکراسی و حاکمیت قانون:

– محافظت از فرآیندهای دموکراتیک و سیستم‌های قضایی در برابر دستکاری یا سوءاستفاده از هوش مصنوعی.

۱۱. تمرکز بر سواد هوش مصنوعی:

– تاکید بر اهمیت افزایش سواد هوش مصنوعی در میان ارائه‌دهندگان، کاربران و عموم مردم. دفتر هوش مصنوعی اروپا وظیفه ترویج ابزارهای آگاهی‌رسانی عمومی را بر عهده دارد.

۱۲. توجه به گروه‌های آسیب‌ پذیر:

– تاکید ویژه بر حفاظت از گروه‌های آسیب‌پذیر، از جمله کودکان و افراد دارای معلولیت، در برابر خطرات هوش مصنوعی.

۱۳. همکاری بین‌المللی:

– تاکید بر اهمیت همکاری با شرکای بین‌المللی در زمینه استانداردهای هوش مصنوعی و تلاش برای ایجاد همگرایی جهانی در رویکردهای نظارتی.

۱۴. تأکید بر حقوق کارگران:

– شامل مقرراتی برای حفاظت از حقوق کارگران در استفاده از سیستم‌های هوش مصنوعی در محل کار.

۱۵. مقررات خاص برای بخش مالی:

– تعیین مقررات ویژه برای استفاده از هوش مصنوعی در بخش خدمات مالی.

۱۶. تعامل با سایر قوانین اتحادیه اروپا:

– توجه به تعامل با سایر قوانین اتحادیه اروپا، مانند قانون خدمات دیجیتال و مقررات حفاظت از داده‌ها.

۱۷. تأکید بر طراحی فراگیر:

– تاکید بر اهمیت طراحی فراگیر سیستم‌های هوش مصنوعی، از جمله در نظر گرفتن نیازهای افراد دارای معلولیت.

۱۸. توجه به پایداری زیست‌محیطی:

– شامل مقرراتی برای ترویج توسعه مدل‌های هوش مصنوعی کارآمد در مصرف انرژی.

۱۹. حق توضیح:

– تضمین حق دریافت توضیح برای افراد تحت تأثیر تصمیمات گرفته شده توسط سیستم‌های هوش مصنوعی پرخطر.

۲۰. مقررات مربوط به آزمایش در شرایط واقعی:

– ایجاد چارچوبی برای آزمایش سیستم‌های هوش مصنوعی در شرایط واقعی قبل از ورود به بازار.

این قانون یک رویکرد جامع و چندبعدی به تنظیم هوش مصنوعی دارد که نه تنها جنبه‌های فنی، بلکه ابعاد اجتماعی، اخلاقی و زیست‌محیطی را نیز در بر می‌گیرد.

ساختار و مطالب کلی قانون هوش مصنوعی اتحادیه اروپا

     ۱.تعریف سیستم هوش مصنوعی:

    • قانون تعریفی گسترده از سیستم‌های هوش مصنوعی ارائه می‌دهد که شامل ماشین‌هایی است که برای اهداف صریح یا ضمنی طراحی شده‌اند و می‌توانند خروجی‌هایی مانند پیش‌بینی، توصیه یا تصمیمات تولید کنند.


      ۲.طبقه بندی ریسک:

      سیستم‌های هوش مصنوعی به چند دسته تقسیم می‌شوند:

      • سیستم‌های ممنوعه
      • سیستم‌های پرخطر
      • سیستم‌های کم‌خطر
      • سیستم‌های با ریسک حداقل
 
 
طبقه بندی ریسک سیستم های هوش مصنوعی
طبقه بندی ریسک سیستم های هوش مصنوعی

۳. سیستم‌های هوش مصنوعی ممنوعه:

برخی کاربردهای هوش مصنوعی به‌طور کامل ممنوع شده‌اند، از جمله:

  • سیستم‌های دستکاری رفتار:

       سیستم‌هایی که می‌توانند آسیب قابل توجهی به افراد وارد کنند.

     

  • سیستم‌های امتیازدهی اجتماعی:

    استفاده از این سیستم‌ها توسط مقامات دولتی برای ارزیابی و کنترل رفتار شهروندان ممنوع است.

  • استفاده از سیستم‌های تشخیص بیومتریک از راه دور در فضاهای عمومی برای اجرای قانون:

    این ممنوعیت با برخی استثنائات محدود اعمال می‌شود.

۴. الزامات برای سیستم‌های هوش مصنوعی پرخطر:

سیستم‌های پرخطر باید الزامات سختگیرانه‌ای را رعایت کنند، از جمله:

  • سیستم مدیریت ریسک:

    استفاده از فرآیندهای جامع مدیریت ریسک.

  • کیفیت بالای مجموعه داده‌ها:

    استفاده از داده‌های دقیق و معتبر.

  • مستندسازی فنی و ثبت وقایع:

    تهیه مستندات کامل و ثبت تمامی رویدادها و اقدامات.

     

  • شفافیت و ارائه اطلاعات به کاربران:

    اطلاع‌رسانی کافی به کاربران درباره نحوه کار سیستم.

  • نظارت انسانی:

    نظارت مستمر انسان بر عملکرد سیستم.

  • دقت، استحکام و امنیت سایبری:

    تضمین دقت و پایداری سیستم‌ها و حفاظت از آنها در برابر تهدیدات سایبری.

۵. تعهدات شفافیت:

برخی سیستم‌های هوش مصنوعی ملزم به اطلاع‌رسانی به کاربران هستند که آنها با یک سیستم هوش مصنوعی در تعامل هستند.

۶. مقررات برای مدل‌های هوش مصنوعی عمومی:

الزامات خاصی برای ارائه‌دهندگان مدل‌های هوش مصنوعی عمومی وضع شده است، به ویژه برای مدل‌هایی که دارای ریسک سیستمی هستند.

۷. ساختار حاکمیتی:

  • تأسیس هیئت اروپایی هوش مصنوعی: نظارت بر اجرای قوانین و ارائه راهنمایی‌های لازم.
  • تعیین مقامات ملی صلاحیت‌دار در هر کشور عضو: مسئولیت نظارت بر اجرای قوانین در هر کشور عضو اتحادیه.
  • ایجاد دفتر هوش مصنوعی اروپا: هماهنگی و نظارت بر اجرای سیاست‌های هوش مصنوعی در سطح اتحادیه.

۸. جریمه‌ها:

جریمه‌های سنگینی برای نقض این مقررات در نظر گرفته شده است، از جمله:

  • تا ۳۵ میلیون یورو یا ۷٪ از گردش مالی جهانی برای نقض ممنوعیت‌ها.
  • تا ۱۵ میلیون یورو یا ۳٪ از گردش مالی جهانی برای نقض سایر الزامات.

۹. زمانبندی اجرا:

  • اکثر مفاد این قانون از ۲ آگوست ۲۰۲۶ اجرایی می‌شوند.
  • بخش‌هایی مانند ممنوعیت‌ها از ۲ فوریه ۲۰۲۵ اعمال می‌شوند.

۱۰. بازنگری و به‌روزرسانی:

این قانون شامل مکانیزم‌هایی برای بازنگری و به‌روزرسانی منظم است تا با پیشرفت‌های فناوری همگام باشد.
این قانون رویکردی جامع و چندلایه برای تنظیم هوش مصنوعی در اتحادیه اروپا ارائه می‌دهد و تلاش می‌کند تعادلی میان ترویج نوآوری و حفاظت از حقوق و ایمنی شهروندان برقرار کند.

جزئیات طبقه‌بندی ریسک در قانون هوش مصنوعی اتحادیه اروپا

۱. سیستم‌های هوش مصنوعی ممنوعه:

این سیستم‌ها به دلیل ریسک غیرقابل قبول برای حقوق اساسی و امنیت شهروندان به‌طور کامل ممنوع شده‌اند. نمونه‌هایی از این سیستم‌ها عبارتند از:

  • سیستم‌های دستکاری رفتار:

       سیستمی که قادر به وارد کردن آسیب‌های قابل توجه به افراد است.

  • سیستم‌های امتیازدهی اجتماعی:

       استفاده از این سیستم‌ها توسط مقامات دولتی برای ارزیابی و نظارت بر رفتار شهروندان.

  • سیستم‌های تشخیص بیومتریک از راه دور در فضاهای عمومی برای اجرای قانون:

       این ممنوعیت شامل استثنائات محدودی می‌شود.

  • سیستم‌های طبقه‌بندی بیومتریک بر اساس ویژگی‌های حساس:

       مانند نژاد، عقاید سیاسی، یا گرایش جنسی.

۲. سیستم‌های هوش مصنوعی پرخطر:

این سیستم‌ها ریسک بالایی برای سلامت، ایمنی، یا حقوق اساسی دارند، اما با رعایت الزامات سختگیرانه مجاز به استفاده هستند. این سیستم‌ها به دو دسته اصلی تقسیم می‌شوند:

  • سیستم‌های ایمنی محصولات:

    تحت قوانین هماهنگ‌سازی اتحادیه اروپا، از جمله تجهیزات پزشکی، اسباب‌بازی‌ها، و خودروها.

  • سیستم‌های مستقل در حوزه‌های خاص

    که در ضمیمه III قانون ذکر شده‌اند، از جمله:

    • سیستم‌های بیومتریک:

      شامل شناسایی و تایید هویت با استفاده از ویژگی‌های بیومتریک.

    • مدیریت زیرساخت‌های حیاتی:

      نظارت و کنترل زیرساخت‌های کلیدی و ضروری.

    • آموزش و تحصیلات:

      استفاده از سیستم‌های هوش مصنوعی در فرآیندهای آموزشی و تحصیلی.

    • استخدام و مدیریت کارکنان:

      سیستم‌های مربوط به انتخاب و مدیریت نیروی کار.

    • دسترسی به خدمات ضروری:

      شامل خدمات خصوصی و عمومی که به بهبود کیفیت زندگی کمک می‌کنند.

    • اجرای قانون:

      استفاده از سیستم‌های هوش مصنوعی در فرآیندهای اجرای قانون و نظارت.

    • مدیریت مهاجرت، پناهندگی و کنترل مرزی:

      استفاده از فناوری‌های هوش مصنوعی در مدیریت و کنترل مهاجرت و پناهندگی.

    • اجرای عدالت و فرآیندهای دموکراتیک:

      استفاده از سیستم‌های هوش مصنوعی در سیستم قضایی و فرآیندهای دموکراتیک.

۳. سیستم‌های هوش مصنوعی با ریسک محدود:

این سیستم‌ها ملزم به رعایت الزامات شفافیت هستند. نمونه‌هایی از این سیستم‌ها عبارتند از:

  • چت‌بات‌ها:
       سیستم‌های هوش مصنوعی که برای تعامل با کاربران به‌صورت متنی طراحی شده‌اند.

     

  • سیستم‌های تشخیص احساسات: 
       فناوری‌هایی که به شناسایی و تحلیل احساسات افراد می‌پردازند.

     

  • سیستم‌های تولید یا دستکاری تصویر، صدا یا ویدئو:
       مانند دیپ‌فیک‌ها که قادر به تولید یا تغییر محتوای چندرسانه‌ای هستند.

۴. سیستم‌های هوش مصنوعی با ریسک حداقل:

    این سیستم‌ها ریسک ناچیزی برای حقوق یا ایمنی شهروندان دارند و از الزامات خاصی معاف هستند. نمونه‌هایی از این سیستم‌ها عبارتند از:

  • فیلترهای اسپم ایمیل:
    سیستم‌های هوش مصنوعی که به شناسایی و فیلتر کردن ایمیل‌های ناخواسته کمک می‌کنند.

     

  • بازی‌های ویدئویی مبتنی بر هوش مصنوعی:
     
    بازی‌هایی که از فناوری هوش مصنوعی برای بهبود تجربه کاربری استفاده می‌کنند.

     

  • سیستم‌های پیشنهاد فیلم یا موسیقی:
    الگوریتم‌های هوش مصنوعی که به پیشنهاد محتواهای مربوطه بر اساس ترجیحات کاربر می‌پردازند.

۵. مدل‌های هوش مصنوعی عمومی:

این مدل‌ها می‌توانند برای طیف وسیعی از کاربردها استفاده شوند و تابع الزامات خاصی هستند، به ویژه اگر دارای “ریسک سیستمی” باشند، مانند مدل‌های زبانی بزرگ. این الزامات به منظور کنترل و نظارت بر استفاده از مدل‌هایی که ممکن است تأثیرات گسترده‌تری داشته باشند، وضع شده‌اند.
این طبقه‌بندی یک رویکرد متناسب با ریسک را ارائه می‌دهد، به‌طوری‌که سطح نظارت و الزامات با سطح ریسک بالقوه سیستم‌های هوش مصنوعی افزایش می‌یابد. هدف این است که همزمان با محافظت از حقوق و ایمنی شهروندان، فضای لازم برای نوآوری در فناوری هوش مصنوعی فراهم شود.

قانون هوش مصنوعی اتحادیه اروپا
قانون هوش مصنوعی اتحادیه اروپا

مقررات مربوط به مدل های هوش مصنوعی عمومی در اتحادیه اروپا

۱. تعریف مدل هوش مصنوعی عمومی:

مدل‌های هوش مصنوعی عمومی به آن دسته از مدل‌هایی اطلاق می‌شود که قابلیت انعطاف‌پذیری بالا دارند و می‌توانند طیف گسترده‌ای از وظایف مختلف را انجام دهند. این مدل‌ها معمولاً با مقادیر زیادی داده آموزش دیده‌اند و قابلیت کاربرد در حوزه‌های متنوع را دارند.

۲. الزامات پایه برای تمام ارائه‌دهندگان مدل‌های هوش مصنوعی عمومی:

تمام ارائه‌دهندگان مدل‌های هوش مصنوعی عمومی ملزم به رعایت الزامات زیر هستند:

  • تهیه و به‌روزرسانی مستندات فنی:

    شامل اطلاعات دقیق درباره فرآیند توسعه و آزمایش مدل.
  • ارائه اطلاعات و مستندات:

    به ارائه‌دهندگان سیستم‌های هوش مصنوعی که قصد دارند مدل را ادغام کنند.

     

  • ایجاد سیاست‌های کپی‌ رایت:

    برای رعایت قوانین کپی‌رایت اتحادیه اروپا.

  • انتشار عمومی خلاصه‌ای از محتوای آموزشی:

    به‌منظور شفافیت در مورد داده‌های مورد استفاده برای آموزش مدل.

۳. مدل‌های هوش مصنوعی عمومی با ریسک سیستمی:

مدل‌هایی که تأثیرگذاری بالایی دارند یا تأثیر قابل توجهی بر بازار داخلی می‌گذارند، باید الزامات اضافی زیر را رعایت کنند:

  • انجام ارزیابی مدل:

    شامل آزمایش‌های خصمانه و شبیه‌سازی‌های مختلف برای شناسایی مشکلات احتمالی.

  • ارزیابی و کاهش ریسک‌های سیستمی:

    شناسایی و کاهش خطرات احتمالی ناشی از استفاده از مدل.

  • گزارش حوادث جدی:

    اطلاع‌رسانی به مقامات ذی‌ربط در مورد حوادث و مشکلات جدی که ممکن است پیش آید.

  • اطمینان از امنیت سایبری:

    تضمین سطح مناسب حفاظت از داده‌ها و سیستم در برابر تهدیدات سایبری.

۴. معیارهای طبقه‌بندی مدل‌های با ریسک سیستمی:

قانون معیارهای خاصی برای تعیین اینکه آیا یک مدل دارای ریسک سیستمی است یا خیر، به شرح زیر تعیین می‌کند:

  • تعداد پارامترهای مدل
  • کیفیت یا اندازه مجموعه داده‌ها
  • میزان محاسبات مورد استفاده برای آموزش مدل
  • حالت‌های ورودی و خروجی مدل
  • معیارها و ارزیابی‌های قابلیت‌های مدل
  • تأثیر بر بازار داخلی
  • تعداد کاربران ثبت‌شده

۵. کدهای رفتاری:

قانون به تدوین کدهای رفتاری برای اجرای مؤثر الزامات مربوط به مدل‌های هوش مصنوعی عمومی تشویق می‌کند. این کدها می‌توانند شامل راهنماها و شیوه‌نامه‌های اجرایی برای رعایت الزامات قانونی باشند.

۶. استثنائات برای مدل‌های منبع باز:

مدل‌هایی که تحت مجوز منبع باز منتشر می‌شوند و پارامترها و معماری آن‌ها به‌صورت عمومی در دسترس است، از برخی الزامات معاف هستند، مگر اینکه دارای ریسک سیستمی باشند.

۷. نظارت و اجرا:

کمیسیون اروپا دارای اختیارات انحصاری برای نظارت و اجرای مقررات مربوط به مدل‌های هوش مصنوعی عمومی است. این شامل قدرت درخواست اطلاعات، انجام ارزیابی‌ها و اعمال جریمه‌های لازم می‌شود.

۸. همکاری در طول زنجیره ارزش:

ارائه‌دهندگان مدل‌های هوش مصنوعی عمومی باید با ارائه‌دهندگان سیستم‌های هوش مصنوعی که از مدل‌های آن‌ها استفاده می‌کنند، همکاری کنند تا اطمینان حاصل شود که الزامات قانونی رعایت می‌شود.

این مقررات به‌منظور اطمینان از توسعه و استفاده مسئولانه و شفاف مدل‌های هوش مصنوعی عمومی وضع شده‌اند، در حالی که همچنان فضایی برای نوآوری در این حوزه فراهم می‌آورند.

تعهدات شفافیت در قانون هوش مصنوعی اتحادیه اروپا

۱. اطلاع‌رسانی به کاربران:

تمام سیستم‌های هوش مصنوعی که با افراد تعامل مستقیم دارند باید به گونه‌ای طراحی شوند که کاربران را مطلع کنند که با یک سیستم هوش مصنوعی در حال تعامل هستند، مگر اینکه این موضوع از نظر یک فرد معقول و آگاه واضح باشد.

۲. شفافیت در مورد سیستم‌های تشخیص احساسات و طبقه‌بندی بیومتریک:

افراد باید از اینکه در معرض سیستم‌های تشخیص احساسات یا طبقه‌بندی بیومتریک قرار گرفته‌اند، آگاه شوند.

۳. شفافیت در مورد محتوای مصنوعی (دیپ‌فیک‌ها):

استفاده‌کنندگان از سیستم‌های هوش مصنوعی که تصاویر، صدا یا ویدئوهای مشابه با افراد، اشیاء یا صحنه‌های واقعی تولید می‌کنند، باید افشا کنند که محتوای تولید شده به‌صورت مصنوعی ایجاد یا دستکاری شده است.

۴. شفافیت در مورد محتوای متنی تولید شده توسط هوش مصنوعی:

در مواردی که متن تولید شده توسط هوش مصنوعی با هدف اطلاع‌رسانی به عموم در مورد مسائل مورد علاقه عمومی منتشر می‌شود، باید افشا شود که متن به‌صورت مصنوعی تولید یا دستکاری شده است، مگر اینکه محتوا تحت بررسی انسانی یا کنترل سردبیری قرار گرفته باشد.

۵. علامت‌گذاری محتواهای مصنوعی:

ارائه‌دهندگان سیستم‌های هوش مصنوعی که محتوای مصنوعی تولید می‌کنند باید راه‌حل‌های فنی برای علامت‌گذاری این محتوا در قالبی قابل خواندن توسط ماشین ارائه دهند.

۶. استثنائات:

  • این الزامات برای سیستم‌های هوش مصنوعی که به‌منظور تشخیص، پیشگیری، تحقیق یا پیگرد جرائم کیفری مجاز هستند، اعمال نمی‌شود، مشروط به اینکه تدابیر مناسب برای حفاظت از حقوق و آزادی‌های اشخاص ثالث وجود داشته باشد.
  • برای محتوای هنری، خلاقانه، طنز یا داستانی، الزامات شفافیت محدود به افشای وجود چنین محتوای تولید یا دستکاری‌شده‌ای است به‌گونه‌ای که مانع از نمایش یا لذت بردن از اثر نشود.

۷. نحوه ارائه اطلاعات:

  • اطلاعات باید به‌طور واضح و قابل تشخیص، حداکثر در زمان اولین تعامل یا مواجهه، ارائه شود.
  • اطلاعات باید با الزامات دسترسی‌پذیری مطابقت داشته باشد.

۸. کدهای رفتاری:

کمیسیون اروپا می‌تواند تدوین کدهای رفتاری در سطح اتحادیه اروپا را برای تسهیل اجرای مؤثر تعهدات مربوط به شفافیت و برچسب‌گذاری محتوای مصنوعی تشویق و تسهیل کند.

۹. ارتباط با سایر قوانین:

این تعهدات شفافیت نباید به‌عنوان نشانه‌ای از قانونی بودن استفاده از سیستم‌های هوش مصنوعی یا خروجی آن‌ها تفسیر شود و بدون تعصب نسبت به سایر تعهدات شفافیت تحت قوانین اتحادیه اروپا یا ملی است.

این تعهدات شفافیت با هدف افزایش آگاهی عمومی از استفاده از هوش مصنوعی و محتوای مصنوعی طراحی شده‌اند، که به نوبه خود به حفاظت از حقوق افراد و تقویت اعتماد عمومی به فناوری هوش مصنوعی کمک می‌کنند.

ساختار حکومتی قانون هوش مصنوعی اتحادیه اروپا

۱. هیئت اروپایی هوش مصنوعی (European Artificial Intelligence Board):

  • ترکیب: شامل نمایندگان کشورهای عضو و ناظر از کمیساریای حفاظت از داده‌های اروپا.
  • وظایف:
    • مشاوره و کمک به کمیسیون اروپا و کشورهای عضو.
    • هماهنگی میان مقامات ملی صلاحیت‌دار.
    • جمع‌آوری و به اشتراک‌گذاری تخصص فنی و نظارتی.
    • ارائه توصیه‌ها و نظرات کتبی در مورد مسائل مرتبط با اجرای قانون.
    • کمک به توسعه راهنماها و استانداردهای مربوطه.

۲. دفتر هوش مصنوعی اروپا (European Artificial Intelligence Office):

  • بخشی از کمیسیون اروپا:
  • وظایف:
    • توسعه تخصص و قابلیت‌های اتحادیه اروپا در زمینه هوش مصنوعی.
    • کمک به اجرای مقررات و نظارت بر سیستم‌های هوش مصنوعی و مدل‌های هوش مصنوعی عمومی.
    • نظارت بر اجرای مقررات مربوط به مدل‌های هوش مصنوعی عمومی.

۳. مقامات ملی صلاحیت‌دار (National Competent Authorities):

  • تعریف: هر کشور عضو باید حداقل یک مقام اطلاع‌دهنده و یک مقام نظارت بر بازار تعیین کند.
  • وظایف:
    • نظارت بر اجرای قانون در سطح ملی.
    • انجام ارزیابی‌های انطباق.
    • اجرای مقررات و اعمال جریمه‌ها در صورت نیاز.

۴. انجمن مشورتی (Advisory Forum):

  • ترکیب: نمایندگان صنعت، استارت‌آپ‌ها، شرکت‌های کوچک و متوسط (SMEها)، دانشگاه‌ها و جامعه مدنی.
  • وظیفه: ارائه مشاوره و تخصص فنی به هیئت و کمیسیون.

۵. پنل علمی متخصصان مستقل:

  • ترکیب: متخصصان مستقل با تخصص به‌روز در زمینه هوش مصنوعی.
  • وظایف:
    • پشتیبانی از فعالیت‌های اجرایی، به ویژه در مورد مدل‌های هوش مصنوعی عمومی.
    • ارائه هشدارهای کیفی در مورد ریسک‌های سیستمی.

۶. ساختارهای پشتیبانی آزمایش هوش مصنوعی اتحادیه اروپا:

  • هدف: کمک به کشورهای عضو در اجرای مؤثر قانون و فراهم کردن زیرساخت‌های لازم.

۷. سندباکس‌های نظارتی هوش مصنوعی:

  • تعریف: هر کشور عضو باید حداقل یک سندباکس نظارتی هوش مصنوعی ایجاد کند.
  • هدف: تسهیل نوآوری و آزمایش سیستم‌های هوش مصنوعی در یک محیط کنترل‌شده و آزمایشی.

۸. نقطه تماس واحد:

  • تعریف: هر کشور عضو باید یک مقام نظارت بر بازار را به عنوان نقطه تماس واحد تعیین کند.

۹. همکاری بین‌المللی:

  • هدف: شامل مکانیزم‌هایی برای همکاری با مقامات صلاحیت‌دار کشورهای ثالث و سازمان‌های بین‌المللی.

۱۰. مکانیزم‌های بازنگری و به‌روزرسانی:

  • هدف: تضمین بازنگری و به‌روزرسانی منظم مقررات برای همگامی با پیشرفت‌های فناوری و تغییرات محیطی.

این ساختار حکومتی چندلایه برای اطمینان از اجرای یکنواخت و مؤثر قانون در سراسر اتحادیه اروپا طراحی شده است، در حالی که انعطاف‌پذیری لازم برای سازگاری با شرایط ملی و پیشرفت‌های فناوری را فراهم می‌کند.

🍪 This website uses cookies to improve your web experience.