Depositphotos
У світі різко зросла кількість неякісних наукових робіт, написаних за допомогою мовних моделей ШІ, і це, за словами досвідчених дослідників, ускладнює виявлення якісних досліджень та підриває довіру до галузі. Дедалі частіше молоді автори штампують десятки публікацій на рік, намагаючись швидко здобути академічну репутацію.
Професор комп’ютерних наук Каліфорнійського університету в Берклі Хані Фарід у коментарі The Guardian назвав ситуацію “скаженим хаосом” та визнав, що вже радить студентам оминати цю сферу. Дискусію спричинив його допис у LinkedIn, де він розкритикував дослідника Кевіна Чжу, який цього року заявив про публікацію 113 технічних робіт.
“Я не можу уважно прочитати 100 технічних статей на рік, тож уявіть мій подив, коли я дізнався про автора, який нібито брав участь у дослідженні та написанні понад 100 технічних статей за рік. Я майже переконаний, що це все, зверху донизу, просто vibe coding”, — сказав Фарід у інтерв’ю The Guardian.
Чжу нещодавно здобув ступінь бакалавра в UC Berkeley й запустив освітню програму Algoverse для школярів та студентів, де слухачі сплачують $3 325 за 12-тижневий онлайн-курс і подають роботи на конференції. Багато з них стали його співавторами. Значну частину цього масиву зокрема прийняла конференція NeurIPS, одна з найбільших у сфері, яка цього року отримала понад 21 500 подань — більш ніж удвічі більше, ніж у 2020-му. Через це організатори залучають до рецензування аспірантів. На поточному заході представлено аж 89 робіт Чжу.
“Так багато молодих людей хочуть піти в AI. Це просто хаос. Ти не можеш встигати, не можеш публікуватися, не можеш робити хорошу роботу, не можеш бути вдумливим”, — каже Фарід.
Фарід назвав роботи Чжу та його команди “катастрофою” та додав, що автор не міг фізично внести осмислений вклад у всі ці дослідження. За словами Фаріда, проблема в тому, що саме дослідження штучного інтелекту найбільше страждає від цього надлишку AI-контенту. Він попереджає, що галузь буквально тоне у власному продукті, а нові дослідження губляться серед машинного потоку.
“У середнього читача немає жодного шансу спробувати зрозуміти, що діється в науковій літературі. Співвідношення сигналу до шуму фактично дорівнює одному. Я ледве можу відвідати ці конференції й розібратися, що там, чорт забирай, відбувається”, — підсумував Фарід.
Втім, на запитання The Guardian про використання мовних моделей Чжу відповів, що його команди застосовують “стандартні інструменти продуктивності, такі як менеджери посилань, перевірку правопису і інколи мовні моделі для копіредагування чи покращення ясності”.
Водночас критики нагадують, що ChatGPT та подібні моделі досі схильні вигадувати джерела, а іноді й вводити в оману рецензентів. Зафіксовані випадки використання некоректних AI-діаграм у рецензованих статтях та навіть прихованих фрагментів тексту, які автори вставляють для маніпулювання AI-рецензентами. Такі інструменти, як ChatGPT, схильні вигадувати цитати або створювати неіснуючі джерела, які часто проходять крізь рецензування навіть у престижних журналах. Інші випадки — наприклад, коли у рецензованій роботі використали AI-згенеровану діаграму миші з неможливо гігантськими статевими органами — змушують сумніватися, чи існує там якийсь контроль узагалі.
Джерело: Futurism.com
Контент сайту призначений для осіб віком від 21 року. Переглядаючи матеріали, ви підтверджуєте свою відповідність віковим обмеженням.
Cуб'єкт у сфері онлайн-медіа; ідентифікатор медіа - R40-06029.