додому Соціум ПРИЗУПИНИТИ ГІГАНТСЬКІ ЕКСПЕРИМЕНТИ ЗІ ШТУЧНИМ ІНТЕЛЕКТОМ: ВІДКРИТИЙ ЛИСТ

ПРИЗУПИНИТИ ГІГАНТСЬКІ ЕКСПЕРИМЕНТИ ЗІ ШТУЧНИМ ІНТЕЛЕКТОМ: ВІДКРИТИЙ ЛИСТ

271

Група спеціалістів зі штучного інтелекту й топменеджерів IT-галузі закликали зробити шестимісячну паузу в розробці потужних систем штучного інтелекту через можливі ризики для суспільства. Про це йдеться у відкритому листі, який опублікував Інститут майбутнього життя (Future of Life Institute).

Лист підписали понад 1,1 тисячі людей, серед яких гендиректор SpaceX, Tesla та Twitter Ілон Маск, співзасновник Apple Стів Возняк, співзасновник Pinterest Еван Шарп, співзасновник Skype Яан Таллінн та багато інших.

Системи штучного інтелекту з інтелектом, що конкурує з людським, можуть становити серйозні ризики для суспільства і людства, як показують численні дослідження[1] і визнають провідні лабораторії штучного інтелекту.[2] 

Як зазначено в схвалених Асиломарських принципах штучного інтелекту, просунутий штучний інтелект може спричинити глибокі зміни в історії життя на Землі, і його слід планувати і управляти ним з належною ретельністю і виділенням відповідних ресурсів. 

На жаль, такого рівня планування та управління не відбувається. В останні місяці лабораторії ШІ беруть участь у неконтрольованій гонці з розробки та впровадження все більш потужних цифрових розумів, які ніхто – навіть їхні творці – не може зрозуміти, передбачити або надійно контролювати.

Сучасні системи штучного інтелекту стають конкурентоспроможними з людиною у виконанні загальних завдань[3], і ми повинні запитати себе: 

● Чи повинні ми дозволити машинам заполонити наші інформаційні канали пропагандою і неправдою? 

● Чи повинні ми автоматизувати всю роботу, в тому числі й корисну? 

● Чи повинні ми розвивати нелюдський розум, який з часом може перевершити нас, перехитрити, застаріти і замінити нас? 

● Чи варто ризикувати втратою контролю над нашою цивілізацією? 

Такі рішення не можна делегувати необраним технологічним лідерам. Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхні наслідки будуть позитивними, а ризики – керованими. Ця впевненість має бути добре обґрунтованою і зростати зі збільшенням масштабів потенційних ефектів системи. 

У нещодавній заяві OpenAI щодо штучного загального інтелекту йдеться про те, що “в певний момент може виявитися важливим отримати незалежну оцінку перед початком навчання майбутніх систем, а для найбільш просунутих зусиль – домовитися про обмеження темпів зростання обчислень, що використовуються для створення нових моделей”. 

Ми згодні. Цей момент настав.


Тому ми закликаємо всі АІ-лабораторії негайно призупинити щонайменше на 6 місяців навчання АІ-систем, потужніших за GPT-4. Ця пауза має бути публічною і такою, що піддається перевірці, і включати всіх ключових гравців. Якщо така пауза не може бути введена в дію швидко, уряди повинні втрутитися і запровадити мораторій.


Лабораторії ШІ та незалежні експерти повинні використати цю паузу для спільної розробки та впровадження набору спільних протоколів безпеки для передового проектування та розробки ШІ, які будуть ретельно перевірятися та контролюватися незалежними зовнішніми експертами. Ці протоколи повинні гарантувати, що системи, які їх дотримуються, є безпечними поза розумним сумнівом[4]. 

Це не означає паузу в розвитку ШІ загалом, а лише відхід від небезпечної гонки до все більших непередбачуваних моделей “чорних ящиків” з новими можливостями, що з’являються.


Дослідження і розробка ШІ повинні бути переорієнтовані на те, щоб зробити сьогоднішні потужні, найсучасніші системи більш точними, безпечними, інтерпретованими, прозорими, надійними, вивіреними, надійними і лояльними.

Паралельно розробники ШІ повинні співпрацювати з політиками, щоб значно прискорити розробку надійних систем управління ШІ. Вони повинні, як мінімум, включати: 

● нові та ефективні регуляторні органи, що займаються питаннями ШІ; 

● нагляд і відстеження високопродуктивних систем ШІ і великих пулів обчислювальних потужностей; 

● системи перевірки походження і водяних знаків, які допоможуть відрізнити справжній ШІ від синтетичного і відстежувати витоки моделей; 

● надійну екосистему аудиту та сертифікації; 

● відповідальність за шкоду, заподіяну ШІ; 

● потужне державне фінансування технічних досліджень з безпеки ШІ; 

● а також добре забезпечені ресурсами інститути, здатні впоратися з серйозними економічними і політичними наслідками, до яких призведе розвиток ШІ (особливо для демократії).


Людство може насолоджуватися процвітаючим майбутнім зі штучним інтелектом. Досягнувши успіху у створенні потужних систем штучного інтелекту, ми можемо насолоджуватися “літом штучного інтелекту”, в якому ми пожинаємо плоди, розробляємо ці системи на загальну користь і даємо суспільству шанс адаптуватися. Суспільство поставило на паузу інші технології з потенційно катастрофічними наслідками для суспільства[5]. Ми можемо зробити це і тут. Давайте насолоджуватися довгим літом штучного інтелекту, а не кидатися непідготовленими в осінь.

* * * * *

[1] Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?

Bostrom, N. (2016). Superintelligence. Oxford University Press.

Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).

Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.

Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.

Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).

Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.

Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.

Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.

Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.

Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.

Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

[2] Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ‘A little bit scared of this’. ABC News.

Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.

[3] Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.

OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.

[4] Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems “function appropriately and do not pose unreasonable safety risk”.

[5] Examples include human cloning, human germline modification, gain-of-function research, and eugenics.

ПерекладПолітКом

Джерело тут

НАПИСАТИ ВІДПОВІДЬ

введіть свій коментар!
введіть тут своє ім'я