Усилить контроль над ИИ предложил спикер Госдумы РФ Вячеслав Володин. Он также предупредил о потенциальных опасностях, которые могут возникнуть при неправильном использовании нейросетей.
Такие опасения озвучиваются на фоне трагических случаев, произошедших в США. Как передают коллеги с телеканала «Саратов 24», в некоторых ситуациях алгоритмы предлагали решение, которое приводило к печальному исходу.
В связи с этим разработчики одной конкретной нейросети решили внедрить ряд защитных функций, среди которых есть родительский контроль, вызов экстренных служб и возможность добавлять в чат доверенное лицо. По мнению чиновника, аналогичные меры должны быть внедрены и в другие нейромодели.
Кроме того, в ноябре нынешнего года в Госдуме планируют затронуть вопросы внедрения искусственного интеллекта и цифровизации, в том числе защите и безопасноти пользователей при контакте с нейросетями.
Вместе с тем, ИИ остается удобным инструментом. Ставропольцы не против искусственного интеллекта, например, в работе, однако есть нюанс. О деталях рассказываем здесь.