ИИ-клоны, которых специалисты создают всего за час, способны имитировать мимику, эмоции, манеру ведения диалога и даже логику "хозяина". Применять их можно, к примеру, во время онлайн-совещаний. Как рассказали в Daily Mail, известный британский врач Дипак Чопра использует своего "представителя" для рабочих созвонов в Zoom.
"Тренеры или эксперты, чье время обычно очень дорого, теперь могут позволить бесконечному количеству людей учиться у них индивидуально, с гораздо меньшими затратами (или бесплатно)", - сказал соучредитель компании Дара Ладжевардян.
Использование реалистичной версии человека в месяц будет стоить от 19 до 399 долларов. При этом разработчики предлагают и дополнительные услуги, такие как клонирование номеров телефонов. Для создания "копии" потребуется удостоверение личности с фотографией - это нужно для того, чтобы избежать появления несанкционированных "клонов".
Подобную услугу - сервис Deepfakes-as-a-Service - запустил и китайский техногигант Tencent. Пользователю для получения своего "клона" потребуется предоставить трехминутное видео с человеком в кадре и аудиозапись произношения 100 предложений на английском или китайском языке. Оцифровка будет длиться порядка 24 часов. В результате заказчику предоставят видеозаготовку с аватаром в полный рост или по пояс, стиль которого можно поменять, сделав, например, реалистичное 3D или мультяшное 2D, пишет издание The Register.
Вместе со всеми полезными функциями такая технология, однако, может нести определенные риски. В первую очередь они касаются всех традиционных киберугроз: в частности, хакеры могут взломать и "угнать" цифровую копию с целью мошенничества или шантажа. Украденный клон также может использоваться для создания контента, дискредитирующего оригинал, или в схемах FakeBoss, когда мошенники звонят своим жертвам от именно руководителей и просят, к примеру, предоставить данные о компании, сказали эксперты F.A.C.C.T.
"Если подобная технология получит распространение, то будет запрос и на защиту цифровых двойников от взлома и копирования", - уверены специалисты.
Как объяснил директор компании Ideco Дмитрий Хомутов, создание цифрового клона человека неразрывно связано с риском нарушения кибербезопасности компании, поскольку для "копирования" потребуется большое количество личной информации, включая биометрические данные.
"Голос напрямую относится к последним. Более 53% сотрудников делятся аудио сообщениями не реже одного раза в неделю, ведя корпоративную и деловую коммуникацию. Такой периодичности достаточно для хакеров, которые могут воссоздать поддельный голосовой документ из трехсекундного исходного файла", - отметил он.
Также сейчас особую популярность набирают дипфейки: только в прошлом году количество такого контента выросло более чем в десять раз. Кроме того, большая часть людей не сможет с точностью определить подлинность подобных материалов.
"Возможно, в будущем мы будем иметь возможность создавать своих дублеров для выполнения повседневных задач, например, вести онлайн совещания или даже общаться с ними. Пока же это лишь предмет фантастики. Наблюдать за развитием подобной технологии стоит, чтобы быть в курсе всех новинок и возможных рисков, связанных с этим", - заключил Хомутов.