}
Публикации и общественные проекты
Назад
Перспективы и риски использования нейросетей в бизнесе
Публикация 20 Января 2024

Перспективы и риски использования нейросетей в бизнесе

Поделиться:

Развитие нейросетей приведет к автоматизации рабочих процессов и сокращению рабочих мест. Сервисы на основе искусственного интеллекта развиваются и масштабируются ежедневно. Председатель совета Московской коллегии адвокатов «Андреев, Бодров, Гузенко и Партнёры» Андрей Андреев рассказал, как использовать нейросети без риска столкнуться с судебным иском.

Российские бизнесмены столкнулись с дилеммой — внедрять ИИ в рабочие процессы или продолжить делать все старым проверенным способом, теряя при этом в производительности в сравнении с более прогрессивными конкурентами.

В вопросах внедрения ИИ не все так просто, так как по неосторожности можно нарваться на судебный иск. Разбираемся в нашем юридическом чек-листе, как использовать нейросети и не получить приглашение в суд.

Системы ИИ в данный момент полностью не регулируются законодательством, однако руководитель компании должен четко отслеживать, чтобы сотрудники не нарушали имеющиеся в стране законы:

 


Распространение незаконной информации (УК РФ Статья 207.3.): использование технологий для создания фейковых новостей, агитации, антирелигиозных и антигосударственных идей. 



Согласно отчёту организации NewsGuard, отслеживающей распространение дезинформации, с мая 2023 года количество сайтов, публикующих фейковые статьи, созданные с помощью ИИ, выросло более чем на 1000%.

Фейковые новости в мировой практике уже использовали авторитетные медиаресурсы, и это влечет за собой нарушение законодательства. Например, рост распространения фейкового контента может повлиять на шансы того или иного кандидата в преддверии президентских выборов.

 


Использование персональных данных (Федеральный закон «О персональных данных» от 27.07.2006 N 152-ФЗ): возможность использования нейросетей для сбора и хранения персональных данных, а также их передачи третьим лицам без согласия пользователей. 



Нейросети могут использовать злоумышленники для кражи корпоративных и персональных данных, взлома систем безопасности. Утечка данных может обернуться для компании утратой доверия со стороны клиентов, финансовыми потерями и судебными тяжбами.

Например, компания Samsung Electronics запретила сотрудникам использовать ChatGPT на рабочих компьютерах и мобильных после того, как в нейросеть утек конфиденциальный программный код. Также в СМИ опубликованы кейсы с утечкой ФИО и данных банковских карт клиентов.

 


Использование интеллектуальной собственности (Закон РФ «Об авторском праве и смежных правах» от 09.07.1993 N 5351-1): пожалуй, самый спорный пункт. 



Одной из первых проблем, возникшей при использовании ИИ, стало нарушение прав на интеллектуальную собственность. В новостях нередко появляются кейсы о претензиях авторов произведений в различных жанрах.

Против использования тектов их книг для обучения ИИ выступают литераторы, да и художники утверждают, что сервисы на основе ИИ используют для генерации их авторский контент, чем весьма недовольны. Встает вопрос о законности использования чужих материалов при использовании ИИ и прав на создаваемый ИИ контент. 

Юристы так и не договорились, за кем можно закрепить права на контент нейросетей. Это может быть создатель программы, пользователь, креатор, давший разрешение на использование своего творчества для обучения алгоритмов, сам ИИ. Наконец, возможны варианты общественного достояния и соавторства.

Создатели нейросетей должны использовать только те материалы, которые не защищены авторским правом или получать соответствующие разрешения на использование защищенных работ, но, к сожалению, далеко не всегда они тратят на это время. 

Несколько советов компаниям, планирующим использовать сервисы на основе ИИ:

  1. Оценить целесообразность использования сервисов на основе ИИ и законность сбора данных, которые возможно включают в себя чужую интеллектуальную собственность.
  2. Использовать ИИ только в качестве инструмента, а в редактуру итогового продукта вовлекать человека. Таким образом, основным креатором продукта будет считаться человек, а не нейросеть.
  3. Контролировать использование и обработку персональных данных клиентов при использовании систем на основе ИИ во избежание утечки данных.

Законодатели уже занимаются разработкой закона об ИИ. По словам замглавы Минцифры Александра Шойтова, одним из направлений закона будет обезличивание используемых им данных и масштабирование уже имеющихся «правильных решений».

Сервисы на основе ИИ используют во многих крупных компаниях, поэтому те, кто все еще не внедрил их в работу, рискуют отстать от конкурентов и уйти с рынка. Однако важно правильно применять нейросети, внедрять их в тех сферах бизнеса, где они уместны и необходимы.

Если работу колл-центра на 50 сотрудников может заменить сервис на основе ИИ, то контроль на технологией лучше доверить человеку, обладающему соответствующими компетенциями и знаниями во избежание ухудшения качества итоговой продукции или услуги.


Андрей Андреев
Председатель совета Московской коллегии адвокатов «Андреев, Бодров, Гузенко и Партнёры»

Фото на обложке: Unsplash