Такие возможности ИИ под названием MegaSyn были продемонстрированы на международной конференции по безопасности. Систему запустили в работу в необычном для нее режиме, она должна была целенаправленно искать токсичные молекулы. Задача решена на "пятерку". Среди 40 тысяч потенциально опасных молекул многие оказались даже более токсичными, чем боевые отравляющие вещества нервно-паралитического действия.
"Изменив условие задачи, мы превратили нашу безобидную модель из полезного медицинского инструмента в генератор потенциально смертельных боевых ядов", - отмечают авторы работы. Они подчеркивают, что большая часть процесса относительно проста в использовании с помощью общедоступных инструментов.
И хотя ни одно из указанных в статье соединений в реальности не существует, проведенный эксперимент предупреждает исследователей всего мира об опасности искусственного интеллекта. То есть ИИ, как и многие революционные технологии, имеет и огромные "плюсы", и огромные "минусы". Может создавать и принципиально новые лекарства, и смертоносные яды.
Что делать? Здесь можно напомнить об обращении Илона Маска, Стива Возняка и еще более тысячи исследователей искусственного интеллекта немедленно приостановить на шесть месяцев работы в области ИИ из-за того риска, которые они могут принести человечеству. "Мощные системы искусственного интеллекта следует разрабатывать только в том случае, когда мы уверены, что их эффекты будут положительными, а их риски - управляемыми", - говорится в тексте.