Depositphotos
Ведущие страховщики стремятся отграничить свою ответственность за сбои искусственного интеллекта после серии дорогостоящих и очень публичных AI-инцидентов, которые подняли опасения относительно системных и коррелированных убытков в моделях риска отрасли.
Как сообщает Financial Times, компании AIG, WR Berkley и Great American уже обратились к регуляторам за разрешением на новые исключения в полисах, которые позволят им отклонять требования, связанные с использованием или интеграцией AI-систем, включая чатботов и агентов. Эти запросы появляются в момент, когда компании почти во всех секторах ускоряют внедрение генеративных инструментов. Напомним, что уже год назад страховые компании отказались страховать Tesla CyberTrack.
Такой переход уже привел к дорогостоящим ошибкам. Google сталкивается с иском о клевете на $110 млн из-за того, что функция AI Overview ложно заявила, что против солнечной компании подан иск генеральным прокурором штата. Тем временем Air Canada обязали выполнить скидку, которую «выдумал» ее сервисный чатбот, а британская инженерная фирма Arup потеряла £20 млн после того, как сотрудников обманули с помощью цифрового клонирования руководителя во время видеозвонка. Кроме этого, уже больше месяца продолжаются суды по поводу обвинения ChatGPT в самоубийстве подростка.
Эти инциденты усложнили страховщикам оценку того, где именно начинается и заканчивается ответственность. В компании Mosaic Insurance заявили FT, что результаты работы больших языковых моделей слишком непредсказуемы для традиционного андеррайтинга, описав их как «черный ящик». Даже Mosaic, которая предлагает специализированное покрытие для ПО, использующего AI, отказывается страховать риски, связанные с LLM-моделями вроде ChatGPT. Проблема заключается не только в тяжести отдельных убытков, но и в риске широкомасштабных, одновременных потерь, вызванных сбоем одной базовой AI-модели.
«Страховая отрасль может выдержать удар в $400-500 млн от сбоя агента, которого использует одна компания. То, что она не выдержит, — это сбой «верхнего уровня», который повлечет тысячу убытков одновременно, то есть системный риск», — говорит Кевин Калинич, руководитель направления киберрисков в Aon.
В качестве потенциального решения WR Berkley предлагает исключение, запрещающее требования, связанные с «любым фактическим или вероятным использованием» AI — даже если эта технология составляет лишь незначительную часть продукта или рабочего процесса. AIG сообщила регуляторам, что «не планирует внедрять» свои предложенные исключения немедленно, но хочет иметь такую опцию на случай, если количество и масштаб претензий будут расти.
Некоторые страховщики движутся к частичной ясности через специальные оговорки в полисах. QBE ввела положение, которое расширяет ограниченное покрытие штрафов по Европейскому AI Act, но не более чем 2,5% от страховой суммы. Chubb согласилась покрывать отдельные AI-связанные инциденты, одновременно исключив любые события, которые могут одновременно влиять на «широкие» массовые случаи. По мере того как регуляторы и страховщики пересматривают свои позиции, бизнес может обнаружить, что риски использования ИИ значительно больше ложатся на их собственный баланс, чем они ожидали.
Источник: TomsHardware
Контент сайту призначений для осіб віком від 21 року. Переглядаючи матеріали, ви підтверджуєте свою відповідність віковим обмеженням.
Cуб'єкт у сфері онлайн-медіа; ідентифікатор медіа - R40-06029.