Штучний інтелект становить найнагальнішу загрозу для сучасного світу, заявив Ілон Маск під час саміту AI Safety у Лондоні.
"Ми вперше в історії людства маємо щось, що буде набагато розумнішим за нас. Тому мені незрозуміло, (як) можна контролювати таку річ, але я думаю, що ми можемо прагнути спрямовувати це в напрямку, від якого виграє людство. Але я вважаю, що це один із екзистенційних ризиків, з якими ми стикаємося, потенційно найбільш нагальний", – сказав один із найбагатших людей світу на форумі, присвяченому безпеці AI (artificial intelligence – штучний інтелект).
Маск, керівник компаній SpaceX, Tesla та соцмережі X, заявив, що під час саміту у Лондоні учасники прагнуть створити "стороннього арбітра", який міг би контролювати компанії, які розробляють штучний інтелект, і бити на сполох, якщо існують занепокоєння.
Завдання AI Safety Summit
Дводенний британський саміт зі штучного інтелекту зібрав глав держав і технологічних гігантів на тлі занепокоєння, що нова технологія може становити небезпеку для людства. Зустріч буде зосереджена на розробці стратегії глобальних скоординованих зусиль для усунення ризиків і неправильного використання інструментів ШІ, пише Al Jazeera.
Форум проводять у Блетчлі-парку в Бакінгемширі, неподалік Лондона. Саме там під час Другої світової війни провідні британські науковці зламали код Enigma нацистської Німеччини. Група експертів, до якої входив першопроходець інформатики Алан Тюрінг, використовувала перший у світі цифровий програмований комп'ютер.
Видання Al Jazeera зазначає, що сьогодні у Великій Британії розташовано вдвічі більше компаній ШІ, ніж у будь-якій іншій європейській країні. У галузі працює понад 50 тисяч людей, а її обсяг сягає 4,5 мільярда доларів. У червні Лондон також став домом для першого офісу за межами Сполучених Штатів для OpenAI, розробника Chat GPT.
Як повідомляє британський уряд, на саміті обговорюють 5 напрямків: спільне розуміння ризиків ШІ, просування міжнародної співпраці з питань безпеки AI, визначення дій окремих організацій для підвищення безпеки у галузі, оцінка напрямків і стандартів для управління галуззю, демонстрування того, як безпечна розробка штучного інтелекту дозволить використовувати технологію на благо людства.
Участь у форумі беруть керівники провідних технологій та AI компанії, зокрема Anthropic, Google DeepMind, IBM, Meta, Microsoft, Nvidia, OpenAI і Tencent.
Спільний підхід до викликів ШІ
28 країн, представники яких беруть участь у події, підписали Декларацію Блетчлі, де вони погодились, що існує нагальна потреба розуміти потенційні ризики ШІ та спільно керувати ними. Серед цих держав, окрім Британії та держав ЄС: США, Китай, Ізраїль, Корея, Індія, Індонезія, Україна.
"Існує потенціал для серйозної, навіть катастрофічної, шкоди, навмисної чи ненавмисної, що випливає з найважливіших можливостей цих моделей ШІ, – йдеться у документі. – Багато ризиків, пов'язаних зі штучним інтелектом, за своєю природою є міжнародними, тому їх найкраще вирішувати шляхом міжнародної співпраці".
Прем'єр-міністр Великої Британії Ріші Сунак сказав, що це "визначне досягнення, яке свідчить про те, що найбільші світові держави-розробники штучного інтелекту погоджуються з нагальністю розуміння ризиків ШІ, допомагаючи забезпечити довгострокове майбутнє наших дітей і онуків".
Відносини між Китаєм і Заходом складні в багатьох сферах, але віцеміністр країни Ву Чжаохуей сказав на конференції, що він прагне духу відкритості в ШІ, пише BBC: "Ми закликаємо до глобальної співпраці, щоб обмінюватися знаннями та робити технології ШІ доступними для громадськості".
Віцепрезидентка США Камала Гарріс, яка також бере участь у саміті, закликала до термінових дій, щоб захистити громадськість і демократію від небезпек AI, включаючи упередженість, дискримінацію та поширення дезінформації. "Коли люди в усьому світі не можуть відрізнити факти від вигадки через потік міфів і дезінформації з підтримкою штучного інтелекту, я запитую, чи це не екзистенціально для демократії?" – сказала вона.
У понеділок президент США Джо Байден підписав виконавчий указ, який надає уряду США більший контроль за системами штучного інтелекту, що можуть становити загрозу національній безпеці, економіці, громадському здоров'ю чи безпеці. Новий Інститут безпеки штучного інтелекту США обмінюватиметься інформацією та співпрацюватиме в дослідженнях з аналогічними міжнародними установами, включаючи майбутній Інститут безпеки штучного інтелекту в Британії.
Попри застереження про небезпеку технології зокрема з боку Ілона Маска, чимало експертів кажуть, що ці занепокоєння перебільшені. Як пише BBC, багато спостерігачів вважають, що найбільша загроза штучного інтелекту полягає в автоматизації робочих місць людей або вбудовуванні наявних упереджень і упереджень у нові, набагато потужніші онлайн-системи.
Нік Клегг, президент із глобальних питань Meta та колишній віцепрем'єр-міністр Великої Британії, який також бере участь у саміті, сказав, що люди не повинні дозволяти "спекулятивним, іноді дещо футуристичним прогнозам" витіснити більш нагальні проблеми.
Наступний такий саміт буде проведено віртуально в Кореї через пів року, а за рік делегати знову зберуться для особистого обговорення у Франції.
У статті використано матеріали Reuters