Генеральний директор OpenAI Сем Альтман заявляє, що світ може опинитися на межі «кризи шахрайства» через те, що штучний інтелект може дозволити зловмисникам видавати себе за інших людей.
«Мене жахає те, що, судячи з усього, деякі фінансові установи все ще приймають голосовий відбиток як підтвердження для переказу великих сум грошей або інших операцій — ви промовляєте контрольне слово, і вони просто виконують вашу команду, – сказав Альтман. – Це божевілля, що таке досі практикується... ШІ повністю витіснив більшість способів аутентифікації, які люди використовують зараз, за винятком паролів».
Це сказав Альтман у своєму великому інтерв'ю про економічні та соціальні наслідки ШІ, яке він дав у Федеральному резервному банку, пише CNN. Він також розповів аудиторії, до якої входили представники великих фінансових установ США, про роль, яку, на його думку, ШІ відіграватиме в економіці.
Його виступ відбувся на тлі очікування оприлюднення Білим домом «Плану дій щодо ШІ» найближчими днями – програмного документа, що окреслює підхід до регулювання цієї технології та сприяння домінуванню Америки у сфері ШІ.
Альтман підкреслив, що наразі шахраї використовують голосові дзвінки, але незабаром з’являться відеодзвінки, які неможливо буде відрізнити від справжніх.
За його словами, хоч OpenAI і не розробляє інструменти для глибоких фейків, проблема масштабної імітації особистості в епоху ШІ стає надзвичайно актуальною.
Загроза глибоких фейків і суперінтелекту
Альтман не перший, хто попереджає про «кризу шахрайства». Раніше ФБР вже застерігало від ШІ-злочинів, у яких зловмисники використовують технології для імітації голосу чи зовнішності інших людей – зокрема, батьків намагалися ошукати, переконавши їх, що їхні діти в небезпеці. У липні стало відомо, що хтось використав голосову імітацію держсекретаря США Марко Рубіо, аби контактувати з іноземними міністрами та американськими політиками.
Серед технологічних загроз Альтман також назвав можливість створення «суперінтелектуальних» ШІ-систем недобросовісними гравцями – наприклад, іноземними державами, які можуть використати ШІ для атак на інфраструктуру США або створення біозброї. Він вважає, що світ ще не готовий захищатися від таких викликів.
Водночас він зізнався, що боїться сценарію, за якого людство втратить контроль над надпотужною ШІ-системою або передасть їй надто багато повноважень.
Робочі місця і ШІ: «Ніхто не знає, що буде далі»
На відміну від деяких лідерів Кремнієвої долини, Альтман менш песимістичний щодо впливу ШІ на зайнятість. Він вважає, що сьогодні надто рано робити точні прогнози.
«Усі ці «розумні» передбачення – лише здогади. Це занадто складна система, щоби точно передбачити наслідки», — сказав він.
Альтман вважає, що хоча певні професії зникнуть, натомість з’являться нові. Він також повторив свою гучну тезу про те, що через 100 років люди, можливо, взагалі не матимуть традиційних «робіт», а вигадуватимуть заняття, щоб почуватися корисними.
Компанія OpenAI останніми місяцями посилила свою присутність у Капітолії та навколо нього. На початку наступного року компанія відкриє свій перший офіс у Вашингтоні, де працюватиме близько 30 співробітників.
Чан Парк, глава OpenAI з глобальних питань у США та Канаді, очолить новий офіс разом із Джо Ларсоном, який залишає оборонну технологічну компанію Anduril, щоб стати віцепрезидентомOpenAI з питань уряду.
Компанія використовуватиме приміщення для прийому політиків, демонстрації нових технологій та проведення тренінгів зі штучного інтелекту, наприклад, для вчителів та урядовців. Тут також проводитимуться дослідження економічного впливу штучного інтелекту та шляхів поліпшення доступу до цієї технології.
Попри застереження Альтмана щодо ризиків цієї технології, OpenAI закликала адміністрацію Трампа уникнути регулювання, яке, на її думку, може перешкодити технологічним компаніям конкурувати з іноземними інноваціями в галузі штучного інтелекту.
На початку цього місяця Сенат США проголосував за вилучення з законопроекту Трампа суперечливого положення, яке б заборонило штатам застосовувати закони, пов'язані зі штучним інтелектом, протягом 10 років.
Наші інтереси:
Штучний інтелект – потенційна загроза чи нова можливість? Живемо в часи карколомних змін.
Війна з Мордором – це наш Великий Потоп. Порятунком буде новий світогляд, народна держава-мережа та передові технології. Штучний інтелект став небезпечним конем без кучера, який виходить з-під...
Гендиректор OpenAI Сем Альтман попереджає про загрозу масового шахрайства через штучний інтелект
Категорія:
Світ:
Спецтема:
Генеральний директор OpenAI Сем Альтман заявляє, що світ може опинитися на межі «кризи шахрайства» через те, що штучний інтелект може дозволити зловмисникам видавати себе за інших людей.
25072503.png
«Мене жахає те, що, судячи з усього, деякі фінансові установи все ще приймають голосовий відбиток як підтвердження для переказу великих сум грошей або інших операцій — ви промовляєте контрольне слово, і вони просто виконують вашу команду, – сказав Альтман. – Це божевілля, що таке досі практикується... ШІ повністю витіснив більшість способів аутентифікації, які люди використовують зараз, за винятком паролів».
Це сказав Альтман у своєму великому інтерв'ю про економічні та соціальні наслідки ШІ, яке він дав у Федеральному резервному банку, пише CNN. Він також розповів аудиторії, до якої входили представники великих фінансових установ США, про роль, яку, на його думку, ШІ відіграватиме в економіці.
Його виступ відбувся на тлі очікування оприлюднення Білим домом «Плану дій щодо ШІ» найближчими днями – програмного документа, що окреслює підхід до регулювання цієї технології та сприяння домінуванню Америки у сфері ШІ.
Альтман підкреслив, що наразі шахраї використовують голосові дзвінки, але незабаром з’являться відеодзвінки, які неможливо буде відрізнити від справжніх.
За його словами, хоч OpenAI і не розробляє інструменти для глибоких фейків, проблема масштабної імітації особистості в епоху ШІ стає надзвичайно актуальною.
Загроза глибоких фейків і суперінтелекту
Альтман не перший, хто попереджає про «кризу шахрайства». Раніше ФБР вже застерігало від ШІ-злочинів, у яких зловмисники використовують технології для імітації голосу чи зовнішності інших людей – зокрема, батьків намагалися ошукати, переконавши їх, що їхні діти в небезпеці. У липні стало відомо, що хтось використав голосову імітацію держсекретаря США Марко Рубіо, аби контактувати з іноземними міністрами та американськими політиками.
Серед технологічних загроз Альтман також назвав можливість створення «суперінтелектуальних» ШІ-систем недобросовісними гравцями – наприклад, іноземними державами, які можуть використати ШІ для атак на інфраструктуру США або створення біозброї. Він вважає, що світ ще не готовий захищатися від таких викликів.
Водночас він зізнався, що боїться сценарію, за якого людство втратить контроль над надпотужною ШІ-системою або передасть їй надто багато повноважень.
Робочі місця і ШІ: «Ніхто не знає, що буде далі»
На відміну від деяких лідерів Кремнієвої долини, Альтман менш песимістичний щодо впливу ШІ на зайнятість. Він вважає, що сьогодні надто рано робити точні прогнози.
«Усі ці «розумні» передбачення – лише здогади. Це занадто складна система, щоби точно передбачити наслідки», — сказав він.
Альтман вважає, що хоча певні професії зникнуть, натомість з’являться нові. Він також повторив свою гучну тезу про те, що через 100 років люди, можливо, взагалі не матимуть традиційних «робіт», а вигадуватимуть заняття, щоб почуватися корисними.
Компанія OpenAI останніми місяцями посилила свою присутність у Капітолії та навколо нього. На початку наступного року компанія відкриє свій перший офіс у Вашингтоні, де працюватиме близько 30 співробітників.
Чан Парк, глава OpenAI з глобальних питань у США та Канаді, очолить новий офіс разом із Джо Ларсоном, який залишає оборонну технологічну компанію Anduril, щоб стати віцепрезидентом OpenAI з питань уряду.
Компанія використовуватиме приміщення для прийому політиків, демонстрації нових технологій та проведення тренінгів зі штучного інтелекту, наприклад, для вчителів та урядовців. Тут також проводитимуться дослідження економічного впливу штучного інтелекту та шляхів поліпшення доступу до цієї технології.
Попри застереження Альтмана щодо ризиків цієї технології, OpenAI закликала адміністрацію Трампа уникнути регулювання, яке, на її думку, може перешкодити технологічним компаніям конкурувати з іноземними інноваціями в галузі штучного інтелекту.
На початку цього місяця Сенат США проголосував за вилучення з законопроекту Трампа суперечливого положення, яке б заборонило штатам застосовувати закони, пов'язані зі штучним інтелектом, протягом 10 років.
Штучний інтелект – потенційна загроза чи нова можливість? Живемо в часи карколомних змін.
Зверніть увагу
Ельфійське пробудження – єдиний шанс врятуватися від бунту психопатів та штучного інтелекту (подкаст)