Кількість згенерованого штучним інтелектом та нейромережами контенту стрімко зростає. І разом з тим збільшується якість цього контенту — з цим важко сперечатися. Але чи здатен ШІ замінити кваліфікованого спеціаліста, наприклад, автора текстів? Адже генерація текстових матеріалів — одна з найпоширеніших сфер застосування ШІ в сучасному світі. А копірайтинг — одна з перших професій, якій пророкували швидке зникнення через появу ChatGPT та аналогів. Та чи дійсно можна так вважати? Відповідне дослідження провела компанія Terakeet й прийшла до висновку, що на теперішньому етапі свого розвитку штучний інтелект не в змозі витіснити спеціалістів.
Зміст
Спеціалісти з Terakeet підготували кілька технічних завдань, кожне з яких віддали в роботу популярним ШІ-платформам для генерації контенту. В експерименті використовувалися наступні:
Тут варто додати, що в момент проведення тестування OpenAI ще не представила свою оновлену модель ChatGPT-4o. Втім, навіть з урахуванням цього факту результати є дуже показовими. І якщо говорити коротко, то жоден ШІ не впорався з завданням на достатньому рівні.
Команда Terakeet поставила перед ШІ три ідентичні задачі:
При оцінці результатів враховувалися наступні параметри:
В Terakeet стверджують, що загальні рекомендації у більшості випадків все ж були дотримані штучним інтелектом. Та водночас за кожною з поставлених задач було чимало недоопрацювань та помилок.
У кожному з випадків згенерованим контент-планам не вистачало інформативності, вони часто були шаблонними та загалом не такими, які справді можна використовувати в роботі. Нікуди не поділися і так звані «галюцинації» ШІ, коли хибна інформація видається за правдиву. У таблиці нижче можна побачити, що деякі з інструментів виконали певні поставлені завдання як належне, але на 100% не впорався жоден з них.
Тут склалася схожа ситуація. Контент мав серйозні структурні проблеми, ключові слова у ньому використані некоректно і часто саме вони формували структуру контенту, а не навпаки. В текстах було чимало неточностей та «галюцинацій», деякі фрази та цілі абзаци виглядали занадто «роботизованими». Навіть без спеціальних сервісів у багатьох випадках можна було зрозуміти, що текст створений штучним інтелектом, а не реальною людиною. І знову ми можемо побачити, що з більшістю поставлених завдань ШІ-інструменти не впоралися.
У цій задачі результати вже виявилися цілком передбачуваними: ШІ так само допускає масу неточностей та припускається помилок, «галюцинує» та й в цілому створює недостатньо якісний і неоригінальний контент. Щоб покращити згенеровані матеріали до належного рівня, необхідна не просто коректура, а комплексна редактура й ретельний “фактчекінг”. Інакше Terakeet категорично не рекомендують використовувати ШІ-згенерований контент.
Сучасні ШІ-інструменти, попри свій стрімкий розвиток та еволюцію, все ще не здатні замінити кваліфікованих спеціалістів. Досягти бажаного результату у перелічених завданнях практично неможливо. Штучний інтелект поки що можна розглядати виключно як допоміжний, але в жодному разі не основний інструмент.
Серед інших висновків команди Terakeet варто відзначити наступні:
Поміж іншим, в Terakeet прийшли до ще одного важливого висновку: за більшістю параметрів згенерований ШІ контент не відповідає актуальним вимогам Google. Це добре видно у наведеній нижче таблиці.
Це насправді досить складне питання. Коли компанія OpenAI тільки-но презентувала ChatGPT у листопаді 2022 року, представник Google Джон Мюллер виступив з досить радикальною заявою про те, що пошукова система буде розцінювати згенерований контент як спам і застосовуватиме відповідні санкції. Втім згодом компанія Google все ж проявила більше лояльності до ШІ і її представники вже не робили подібних гучних заяв.
Зрештою вже у 2023 році головним принципом, яким керувався Google, була оцінка якості контенту, а не того, яким чином він був створений. Зокрема враховується відповідність вмісту показникам EEAT: експертності, надійності та авторитетності. Такою позиція Google залишається й зараз.
Станом на 2024 рік в Google не заявляли про те, що його алгоритми здатні виявляти ШІ-згенерований контент. В першу чергу через складність цього процесу. Свого часу навіть OpenAI закрили свій сервіс для перевірки текстів на предмет генерації через його неточність та хибні оцінки. Навряд чи Google вдасться найближчим часом створити алгоритм, який би з високою точністю міг виявляти згенерований вміст. Але з кожним новим апдейтом він наближатиметься до цього все більше.
Однак, повертаючись до основної частини статті, ще раз підкреслимо: ШІ не здатен створювати щось нове, проводити глибокий аналіз, формулювати нові ідеї, концепції тощо. Натомість він оперує виключно вже наявною інформацією. І ось тут головна проблема: з точки зору алгоритмів Google, такий контент може не відповідати актуальним стандартам. А це вже цілком може стати причиною для песимізації сайтів з ШІ-згенерованим контентом. Особливо якщо його додатково не перевіряли та не редагували спеціалісти.
А висновків можна зробити одразу два:
Все вищесказане зрештою можна стиснути до однієї короткої фрази: публікувати згенерований контент на сайті можна, але у переважній більшості випадків не варто. До того ж ми ніколи не можемо завчасно знати, чи не зміниться політика Google через рік, місяць або навіть тиждень. І коли пошуковий гігант почне запроваджувати санкції проти сайтів з ШІ-контентом, наслідки можуть виявитися вкрай неприємними.