GPAIها نوعی از مدلهای هوش مصنوعی هستند که با قدرت رایانش بیش از ۱۰⊃۲;⁵ FLOP آموزش دیدهاند. اوپنایآی، گوگل، متا، آنتروپیک و میسترال از جمله شرکتهای واجد شرایط پیروی از این آییننامه هستند. البته این فهرست در حال گسترش است.
پیشنویس آییننامه چند حوزه اصلی را برای سازندگان GPAI پوشش میدهد که شامل شفافیت، پیروی از قانون کپیرایت، مدیریت ریسک و کاهش ریسک فنی و نظارتی است.
این آییننامه ۳۶ صفحهای حوزههای مختلفی را دربر میگیرد، اما چند نکته در آن برجسته است. مقررات مذکور روی شفافیت در توسعه هوش مصنوعی تاکید دارد و شرکتهای این حوزه را ملزم به فراهم کردن اطلاعات درباره «خزندههای وب» (web crawler) میکند که برای آموزش مدلهای هوش مصنوعی به کار میگیرند. خزنده وب یک برنامه رایانهای است که توانایی مرور و ثبت اطلاعات را از وبسایتها به صورت خودکار دارد. این امر یکی از نگرانیهای اصلی خالقان محتوا و صاحبان حقوق کپیرایت است. هدف بخش مدیریت ریسک نیز جلوگیری از جرایم سایبری، تبعیض گسترده و از بین رفتن کنترل بر هوش مصنوعی است.
انتظار میرود سازندگان هوش مصنوعی «چارچوب ایمنی و امنیت» (SSF) را به کار گیرند تا سیاستهای مدیریت ریسک خود را تجزیه کنند و آنها را متناسب با ریسکهای سیستمیشان کاهش دهند. همچنین این قوانین حوزههای فنی مانند مدلهای داده محافظ، ارائه کنترلهای دسترسی ایمن و ارزیابی ایمن تاثیرگذاری آنها را پوشش میدهد.
طبق این قانون مانند بقیه مقررات مرتبط با فناوری در اتحادیه اروپا، شرکتهایی که مشمول قانون هوش مصنوعی میشوند، در صورت نقض قوانین با جریمههای سنگین روبهرو میشوند. این شرکتها ممکن است با جریمهای تا سقف ۳۵ میلیون یورو یا ۷درصد درآمد جهانی سالانهشان روبهرو شوند. از سهامداران شرکتهای مرتبط در این حوزه خواسته شده بازخوردهایشان را تا ۲۸ نوامبر ارائه کنند تا به بهبود پیشنویس بعدی کمک کنند.