Європейський Союз у п'ятницю ухвалив найперший у світі комплексний закон щодо регулювання штучного інтелекту (ШІ), повідомляє британське видання Guardian 9-го грудня.
Закон, який називають“історичним”, запровадить стандарти поведінки для виробників технологій ШІ, таких як OpenAI. У 27-ми країнах-членах ЄС закон також регулюватиме соціальні мережі, такі як Meta, X та TikTok, та пошукові системи на кшталт Google.
Закон про ШІ (AI Act англійською) між Європейським парламентом і державами-членами ЄС може запровадити світовий стандарт для класифікації ризиків, пов’язаних з ШІ, а також забезпечення прозорості розробок у цій сфері й визначення заходів фінансового покарання для компаній-порушників.
Закон позиціює Європейський Союз попереду США, Китаю та Великої Британії у намаганнях врегулювати ШІ й захистити громадян від ризиків, пов’язаних з цими новими технологіями, що бурхливо розвиваються, включно з потенційними загрозами життю людей, зауважує видання Washington Post,
ЄС віддавна був світовим лідером у законодавчому розв'язанні проблем конфіденційності за цифрової ери, соціальних мереж і медіа тощо, додає американська газета.
“У нас була одна мета — ухвалити законодавство, яке забезпечить розвиток екосистеми штучного інтелекту в Європі з орієнтованим на людину підходом, поважаючи фундаментальні права, людські цінності, зміцнюючи довіру, розвиваючи усвідомлення того, як ми можемо отримати найкраще від цієї революції штучного інтелекту, яка відбувається на наших очах”, – зазначив депутат Європарламенту Брандо Бенефеї, співголова переговорної групи парламенту щодо Закону про ШІ, якого цитує Guardian.
“Ми перші у світі встановили реальне регулювання для ШІ й майбутнього цифрового світу, керованого ШІ, спрямовуючи розвиток і еволюцію цієї технології в людиноцентричному напрямку”, – зазначив його колега Драгош Тудораке, румунський депутат Європарламенту, який очолював чотирирічну роботу Європейського парламенту з регулювання ШІ, зазначає видання.
Відтоді як закон набуде чинності – що станеться не раніше 2025 року – технологічні компанії, які прагнутимуть працювати й продавати свої продукти на основі ШІ в межах ЄС, будуть змушені ділитися своїми даними з регуляторами та проводити ретельне тестування ШІ.
Ці правила стосуватимуться найбільшого західного економічного блоку, який має 450 мільйонів споживачів.
Суть європейського Закону про ШІ
Офіційні особи ЄС наразі не розголошують багато деталей нового закону. Відомо, що в основу його закладена багаторівнева система, яка базується на оцінці ризиків, повідомляє Guardian. Відповідно до неї, найвищий рівень і буде застосовано до тих технологій ШІ, які становлять найбільший ризик для здоров’я, безпеки та прав людини. До таких продуктів “високого ризику”, належать, наприклад, безпілотні автомобілі або медичне обладнання, додає Washington Post.
В остаточному варіанті закону категорія найвищого ризику визначена кількістю комп’ютерних операцій, необхідних для навчання моделі, відомих як “операції з плаваючою комою за секунду” (або Flops англійською).
Газета Guardian зазначає, що наразі існує лише одна модель – GPT4, розроблена компанією OpenAI – яка підпадає під це визначення. Відтак, закон великою мірою спрямований на забезпечення регулювання майбутніх моделей ШІ.
Що стосується нижчого рівня регулювання, запровадженого в законі, то він все одно передбачає значні зобов’язання для компаній-розробниць ШІ, включно з вимогами щодо розкриття даних, використаних для навчання моделей будь-якого рівня.
Відомо, що Франція, Німеччина та Італія доклали зусиль наприкінці процесу, щоб внести зміни, спрямовані на пом’якшення деяких положень законопроєкту, проти яких рішуче виступили представники Європейського парламенту, зазначає Washington Post.
Для того, щоб наголосити на складності ухвалених рішень, єврокомісар Тьєррі Бретон повідомив, що для укладення угоди близько 100 представників Єврокомісії, Європарламенту й держав-членів ЄС провели разом в кімнаті майже 3 дні, загалом витративши близько 37 годин на фінальні перемовини. Згідно з процедурами ЄС, Європейська Комісія висуває законопроєкти, а Європейська рада та Європейський парламент ухвалюють їх.
Мовні моделі належали до найбільш суперечливих
Відтак, у законі закладено компроміси щодо найбільш суперечливих аспектів, зокрема щодо регулювання гігантський базових мовних моделей, таких як ChatGPT, які збирають дані для свого навчання в інтернеті, й щодо використання технологій ШІ для потреб правоохоронних органів ЄС.
А саме, як пояснив єврокомісар Бретон, на якого посилається Guardian, закон передбачає заборону на використання технологій ШІ поліцією, роботодавцями чи закладами торгівлі для стеження за людьми в реальному часі, включно з емоційним розпізнаванням.
Єдині винятки складають ситуації, коли поліція потребує використання інвазивних технологій ШІ через несподівану загрозу теракту, а також для пошуку жертв торгівлі людьми й для розслідування серйозних злочинів, таких як вбивства, зґвалтування тощо.
“Ми ніколи не намагалися позбавити правоохоронні органи інструментів, необхідних їм для боротьби зі злочинністю, інструментів, необхідних для боротьби з шахрайством, інструментів, необхідних для забезпечення безпечного життя громадян. Але ми хотіли – і ми цього досягли – заборонити технології штучного інтелекту, які робитимуть висновок або наперед визначатимуть, хто може скоїти злочин”, – сказав Тудораке, якого цитує Guardian.
Хоч закон передбачає обмеження для базових моделей ШІ великих компаній, він також містить винятки для “моделей з відкритим вихідним кодом”, тобто таких, які розроблені з використанням коду, наявного у вільному доступі для розробників, додає Washington Post.
Відтак, це може сприяти європейським компаніям-розробницям ШІ з відкритим кодом, які були проти закону, зокрема французькій Mistral і німецькій Aleph Alpha, а також американській компанії Meta, власниці Facebook, яка володіє моделлю ШІ з відкритим кодом LLaMA.
Згідно з новим законом, компаніям, які його порушують, може загрожувати штраф розміром до 7 відсотків світового доходу компанії, залежно від типу порушення та розміру компанії-порушниці.
На додаток, вплив європейського закону може бути відчутний далеко за межами континенту, адже після пристосування до європейських правил, компаніям-розробницям ШІ може бути невигідно перенавчати свої моделі для неєвропейських ринків.
“Це законодавство стане стандартом, моделлю для багатьох інших юрисдикцій”, – зазначив Тудораке, якого цитує Washington Post.
Регулювання ШІ у США «на початкових стадіях»
Тим часом у США президент Джо Байден 30-го жовтня цього року підписав розпорядження про регулювання штучного інтелекту, що стало наймасштабнішою спробою регулювання у цій сфері в країні дотепер, пише Washington Post в окремій статті. Байден назвав ШІ “найважливішою технологією нашого часу”, в той час, як критики технологій ШІ вказують на її “майже безмежну загрозу”.
Розпорядження з’явилося на тлі повідомлень про те, що робота над відповідним законодавством для врегулювання питань ШІ у Конгресі США перебуває на початкових стадіях. Розпорядження торкнулося широкого спектра питань, включно з новими вимогами щодо безпеки продуктів, накладеними на розробників ШІ, та зобов’язаннями для різноманітних федеральних служб пом’якшити ризики від використання ШІ, зокрема у власній роботі служб.
Використовуючи надзвичайні повноваження, які надає «Закон про оборонне виробництво» 1950-го року, Байден у розпорядженні серед іншого зобов’язав компанії-розробниці найбільш досконалих моделей ШІ проводити тести на безпеку й повідомляти уряд про їхні результати, перед тим, як продукти компаній стануть доступні споживачам.
Водночас адміністрація президента США обмежена у своєму регуляторному впливі без прийняття відповідного законодавства Конгресом. Як зауважує Washington Post, розпорядження Байдена закликає Конгрес “ухвалити двопартійне законодавство про конфіденційність даних, щоб захистити всіх американців, особливо дітей”, що є мовчазним визнанням обмежень виконавчих повноважень Байдена у цій сфері.
Одночасно з підписанням президентського розпорядження, країни G7 оприлюднили добровільний Міжнародний кодекс поведінки для організацій, які розробляють передові системи ШІ. Рекомендації кодексу закликають компанії-розробниці регулярно оцінювати ризики своїх моделей, а також приділяти особливу увагу системам, які можуть становити загрозу демократичним цінностям або суспільству, наприклад, шляхом допомоги у створенні біологічної або ядерної зброї, додає Washington Post.