
30
Березня
2023

Акули IT-бізнесу вимагають запровадити мораторій для розробки штучного інтелекту
Експерти, що працюють у галузі штучного інтелекту та високопоставлені менеджери IT-галузі, закликають до паузи, мінімум у шість місяців, у розробці потужних систем штучного інтелекту, оскільки вони потенційно небезпечні для суспільства. Відкритий лист про це було опубліковано Інститутом майбутнього життя (Future of Life Institute) та підписано понад 1,1 тисячі осіб, включаючи Ілона Маска, Стіва Возняка, Евана Шарпа, Яана Талліна та багатьох інших.
У листі автори закликають усі лабораторії, що вивчають та розробляють штучний інтелект, а також незалежних експертів негайно зупинити навчання систем штучного інтелекту, які потужніші за GPT-4 від компанії OpenAI, як мінімум на півроку. Якщо подібну зупинку роботи неможливо здійснити в найкоротший термін, то в ситуацію повинні втрутитися урядові структури та ввести мораторій.
Це не свідчить про зупинення розвитку штучного інтелекту в цілому, а лише крок назад від небезпечної гонки до невизначених моделей із надзвичайними можливостями. Вони також зазначають, що лабораторії штучного інтелекту та незалежні експерти повинні використовувати цю паузу, щоб спільно розробити та впровадити спільні протоколи безпеки для покращення проектування та розробки штучного інтелекту.
Підписанти стверджують, що за останні місяці лабораторії штучного інтелекту втратили контроль над розробкою та розгортанням все більш потужних цифрових розумів, яких ніхто, навіть їхні творці, не може зрозуміти, прогнозувати чи надійно контролювати.
Головні тези
Автори листа запитують: чи повинні ми довіряти машинам, щоб вони заповнювали наші інформаційні канали пропагандою та брехнею? Чи варто автоматизувати всю роботу, включаючи ту, яка приносить задоволення?
Рекомендація авторів листа – бути обережними з автоматизацією роботи та використання штучного інтелекту. Питання полягає в тому, чи слід автоматизувати всю роботу, включаючи ту, яка приносить задоволення. Крім того, автори запитують, чи потрібно розвивати нелюдські уми, які можуть зрештою замінити нас. Також викликає занепокоєння момент втрати контролю над нашою цивілізацією, якщо ми припустимо, що штучний інтелект може стати надто потужним. На їхню думку, потужні системи штучного інтелекту слід створювати лише тоді, коли ми впевнені, що вони не становлять ризиків і здатні принести лише користь.
Коментарі
Write comment