Такие возможности нейросети под названием MegaSyn были продемонстрированы на международной конференции по безопасности. Систему запустили в работу в необычном для нее режиме, она должна была целенаправленно искать токсичные молекулы. Задача решена на "пятерку". Среди 40 тысяч потенциально опасных молекул многие оказались даже более токсичными, чем боевые отравляющие вещества нервно-паралитического действия.
"Изменив условие задачи, мы превратили нашу безобидную модель из полезного медицинского инструмента в генератор потенциально смертельных боевых ядов", - отмечают авторы работы. Они подчеркивают, что большая часть процесса относительно проста в использовании с помощью общедоступных инструментов.
И хотя ни одно из указанных в статье соединений в реальности не существует, проведенный эксперимент предупреждает исследователей всего мира об опасности искусственного интеллекта. Как и многие революционные технологии, он имеет колоссальные "плюсы" и "минусы". Например, может создавать и принципиально новые лекарства, и смертоносные яды.
Что делать? Здесь надо напомнить об обращении Илона Маска, Стива Возняка и еще более тысячи исследователей искусственного интеллекта немедленно приостановить на шесть месяцев работы в области ИИ из-за того огромного риска, который они могут принести человечеству. "Мощные системы искусственного интеллекта следует разрабатывать только в том случае, когда мы уверены, что их эффекты будут положительными, а их риски - управляемыми", - говорится в тексте. Но пока на этот призыв от коллег не последовало ответа.