Российские ИТ-компании оценили опасения Маска и Возняка из-за ChatGPT
В «Сколково» в ответ на призыв остановить обучение нейросетей выступили за создание правил
Развитие ИИ не стоит останавливать, но следует ограничить его правилами и этическим сводом, считают опрошенные РБК топ-менеджеры российских ИТ-компаний. Ранее приостановить тренировки систем мощнее GPT-4 призвали Маск и Возняк
Для мощного искусственного интеллекта (Artificial intelligence, AI) необходимо разработать регулирование и этические правила, вместе с тем скорость его замещения людей определенных профессий сильно переоценена. Об этом заявил РБК старший вице-президент по инновациям фонда «Сколково» Кирилл Каем, комментируя открытое письмо основателей технологических компаний с призывом приостановить обучение ИИ.
«Разумеется, все эти краеугольные изменения потребуют как регулирования разработок, внедрения, правил использования AI, так и принятия определенного свода этических вопросов. Возможно, авторитеты, подписавшие открытое письмо, хотят дать первый и сильный толчок таким изменениям», — сказал Каем. По его мнению, в дальнейшем принимать и изменять правила нужно будет постоянно, чтобы они успевали за прогрессом и новыми возможностями ИИ.
Каем согласился с авторами письма в том, что искусственный интеллект поменяет рынок труда, но скорость этого замещения сейчас значительно переоценена. «Это не один десяток лет. Во-вторых, это изменение сфокусирует рынок труда на других профессиях, где AI пока не силен: творческие специальности или специальности, которые требуют большого вовлечения, эмпатии — медицинская помощь в части ухода и общения с пациентами, образование, часть индустрии развлечений», — заявил он. На стыке ИИ — человек возникнет ряд новых специальностей, связанных с обучением, контролем и принятием ответственных решений, допустил он.
Каем считает, что во многих отраслях ИИ останется помощником, будет анализировать большие объемы данных, предлагать сценарии, рассчитывать вероятности, но конечное решение будет оставаться за человеком.
Технический директор Smart Engines (разрабатывает программное обеспечение для распознавания документов) Дмитрий Николаев считает, что властям следовало бы ограничить исследования ИИ с целью защиты базовых прав людей, «ввести понятные правила, которые запретят вредоносное использование ИИ». Он отметил, что при использовании искусственного интеллекта отсутствует законодательная база на запрет их применения в мошеннических целях, «проведение психологических атак на людей». Кроме того, продолжил Николаев, хаотичное развитие ИИ несет прямой экологический ущерб, поскольку на обучение моделей расходуются мегаватты электроэнергии. При этом, подчеркнул Николаев, пауза в обучении мощного ИИ на полгода, которую предлагают авторы письма, ничего не изменит, поскольку остановить прогресс невозможно.
Руководитель департамента машинного обучения дирекции по ИИ и цифровым продуктам «ВымпелКома» (работает под брендом «Билайн») Дмитрий Ермилов призвал думать не об остановке развития искусственного интеллекта, а об ограничении использования таких систем. «То есть не предоставлять открытый доступ всем желающим к таким инструментам, а давать его, например, компаниям для промышленного использования. Такой барьер позволит оградить общество от многих рисков, которые возникают при работе обычных пользователей с нейросетями», — отметил Ермилов.
Ранее на сайте Future of Life появилось открытое письмо, которое подписали более 1 тыс. человек, в том числе основатель Tesla Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк. Они призвали прекратить хотя бы на шесть месяцев тренировки систем мощнее GPT-4. Подписанты указали, что системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять опасность для общества, и задались вопросом, должны ли люди «рисковать потерей контроля над цивилизацией».