Відомий джинсовий бренд вважає, що ШІ дозволить клієнтам побачити як предмет одягу виглядає на моделях з різною статурою, віком, вагою, зростом та відтінками шкіри.
Про запланований експеримент повідомили минулого тижня, під час оголошення про партнерство Levi’s з Lalaland.ai – студією цифрової моди, яка створює реалістичних цифрових моделей за допомогою ШІ та вже співпрацювала з Calvin Klein і Tommy Hilfiger.
Наразі більшість товарів, які рекламуються в додатку або на вебсайті Levi’s, можна переглянути лише на одній моделі. Використання цифрових манекенів допомогло б урізноманітнити показ одягу та спростити процес вибору для клієнтів.
Levi’s розпочне тестувати ШІ-моделей пізніше цього року, але не повідомляє, на яких платформах вони будуть доступні та чи можна їх змінювати власноруч.
Ну і звичайно тут також існує побоювання того, що штучний інтелект «відбере» роботу у реальних людей. Минулого року Levi Strauss & Co звільнила 700 співробітників, або 15% своєї робочої сили, що дозволило заощадити $100 мільйонів на рік. У своєму пресрелізі компанія заявляє, що не вважає ШІ-моделей «єдиним рішенням» для просування різноманітності, справедливості та інклюзії, а також не збирається замінювати людей цією технологією — натомість стверджує, що штучний інтелект «лише доповнить реальних моделей».
«Хоча штучний інтелект, ймовірно, ніколи повністю не замінить для нас людей-моделей, ми раді потенційним можливостям, які він може надати нам для споживчого досвіду», — сказала Емі Гершкоф Боллес, глобальний керівник стратегії цифрових і нових технологій Levi Strauss & Co.
Інші компанії альтернативно застосували технологію доповненої реальності, щоб допомогти споживачам візуалізувати, як одяг виглядатиме на їхньому тілі. У вересні минулого року Walmart представила програму Be Your Own Model, яка дозволяє користувачам віртуально приміряти одяг за допомогою власних фотографій і технологій AR. Amazon Fashion також співпрацювала зі Snap, надаючи користувачам Snapchat можливість віртуально моделювати фірмові окуляри за допомогою фільтрів AR.