Компания тестировала разные ИИ‑модели, включая ChatGPT, Gemini, Claude, DeepSeek, Grok и другие. В ходе испытаний обнаружились серьезные недостатки. Например, в одном из тестов при разработке цепочек аварийных отключений система пропускала отдельные пункты, что могло привести к нарушению циклограммы работы оборудования и угрозе безопасности персонала.
"На оборудовании работают люди, их безопасность для нас на первом месте. Пропуск мельчайшей детали фатален. Например, в определенный момент должен открываться клапан в камере с высоким давлением и сбрасывать его, и если этого не сделать, то может произойти разрушение", - подчеркнул Тарасов.
Он также отметил, что нейросети не способны в полной мере учитывать производственный контекст: они могут игнорировать части технического задания, не замечать отклонения от плана и не учитывать изменения в процессе установки и запуска оборудования. К тому же ошибки в решениях ИИ сложно анализировать и исправлять - профессионалы в реальных условиях справляются с выявлением несоответствий гораздо эффективнее.
При этом ПЦБК продолжает применять искусственный интеллект в других сферах - например, для прогнозирования потребления электроэнергии и выполнения сложных расчетов, которые трудно или невозможно провести с помощью классической математики.