Ілон Маск, Стів Возняк і понад тисяча підписантів закликали призупинити розробку штучного інтелекту
Група спеціалістів зі штучного інтелекту й топменеджерів IT—галузі закликали зробити шестимісячну паузу в розробці потужних систем штучного інтелекту через можливі ризики для суспільства.
Про це йдеться у відкритому листі, який опублікував Інститут майбутнього життя (Future of Life Institute).
Лист підписали понад 1,1 тисячі людей, серед яких гендиректор SpaceX, Tesla та Twitter Ілон Маск, співзасновник Apple Стів Возняк, співзасновник Pinterest Еван Шарп, співзасновник Skype Яан Таллінн та багато інших.
Підписанти закликають усі лабораторії ШІ негайно призупинити принаймні на пів року навчання систем ШІ, потужніших за GPT-4 від компанії OpenAI. Якщо таку паузу не можна зробити швидко, уряди повинні втрутитись і ввести мораторій, вважають автори листа.
«Лабораторії штучного інтелекту й незалежні експерти повинні використати цю паузу, щоб разом розробити і впровадити набір спільних протоколів безпеки для вдосконаленого проєктування та розробки штучного інтелекту», — йдеться у листі.
Підписанти наголосили, що це не означає призупинення розвитку штучного інтелекту взагалі, а просто «крок назад від небезпечних перегонів за все більш непередбачуваними моделями з надзвичайними можливостями».
За даними Reuters, виконавчий директор OpenAI Сем Альтман не підписував цей лист.
Навіщо це потрібно?
На думку підписантів, за останні місяці лабораторії штучного інтелекту вийшли з-під контролю за розробкою та розгортанням дедалі потужніших цифрових розумів, «яких ніхто, навіть їхні творці, не може зрозуміти, прогнозувати чи надійно контролювати».
«Ми повинні запитати себе: чи маємо ми дозволити машинам заповнювати наші інформаційні канали пропагандою та неправдою? Чи слід автоматизувати всю роботу, включно з тією, яка приносить задоволення? Чи повинні ми розвивати нелюдські розуми, які згодом можуть перевершити, перехитрити й замінити нас? Чи варто ризикувати втратою контролю над нашою цивілізацією?» — йдеться у листі.
Автори листа вважають, що потужні системи штучного інтелекту слід розробляти лише тоді, «коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики — керованими».
- Поділитися: