Раніше минулого тижня компанія описала Galactica як мовну модель ШІ (штучного інтелекту), яка «може зберігати, комбінувати та міркувати про наукові знання» – узагальнювати наукові роботи, розв’язувати рівняння і виконувати ряд інших корисних наукових завдань, пише Mezha.
Але вчені та академіки швидко виявили, що ШІ генерує приголомшливу кількість дезінформації, в тому числі посилаючись на авторів наукових робіт, яких не існує.
«У всіх випадках це було неправильно або упереджено, але звучало правильно та авторитетно» – написав Майкл Блек, директор Інституту інтелектуальних систем ім. Макса Планка, у Твіттері після використання інструменту. – Я думаю, що він небезпечний».
У дописі Блека зафіксовані різноманітні випадки, коли Galactica генерувала наукові тексти, які вводять в оману або є просто помилковими. У кількох прикладах ШІ генерує статті, які звучать авторитетно і правдоподібно, але не підкріплені реальними науковими дослідженнями. У деяких випадках цитати навіть містять імена реальних авторів, але посилаються на вигадані репозиторії Github та наукові роботи.
Інші вказували на те, що Galactica не повертає результати для широкого кола дослідницьких тем, ймовірно, через автоматизовані фільтри штучного інтелекту. Віллі Агню, дослідник комп’ютерних наук з Вашингтонського університету, зазначив, що такі запити, як «квір-теорія», «расизм» і «СНІД», не дали жодних результатів.
Через такі відгуки Meta видалила демоверсію Galactica. Коли до неї звернулися за коментарем, компанія послалася на заяву Papers With Code, проекту, відповідального за розробку цього ШІ.
«Ми цінуємо відгуки, які отримали на цей час від спільноти, і поки що призупинили демонстрацію, – написала компанія у Twitter. – Наші моделі доступні для дослідників, які хочуть дізнатися більше про їхню роботу і відтворити результати».
Це – не перший випадок, коли компанії Meta доводиться виправдовуватися після випуску жахливо упередженого ШІ. У серпні компанія випустила демоверсію чат-бота під назвою BlenderBot, який робив «образливі та неправдиві» заяви. Компанія також випустила велику мовну модель під назвою OPT-175B, яка, за визнанням дослідників, мала «високу схильність» до расизму та упередженості – так само як і подібні системи, наприклад, GPT-3 від OpenAI.
Дізнаємося про особливості штучного інтелекту.
Цікаво, хто брехливіший: штучний інтелект, офіційна наука чи Цукерберг?
Все, що робиться з власної волі, – добро!
Коментарі
Цікаво, хто брехливіший: штучний інтелект, офіційна наука чи Цукерберг?
Все, що робиться з власної волі, – добро!