Ждать ли жесткого регулирования нейросетей?
Samsung могла запретить сотрудникам пользоваться нейросетями. По данным СМИ, решение принято после возможной утечки фрагментов «исходного кода» через ChatGPT. Насколько в целом велики риски от использования ИИ?
Читать на полной версииСообщение о моратории на искусственный интеллект в офисах Samsung публикует Bloomberg. Согласно статье, сотрудникам южнокорейского гиганта нельзя будет пользоваться ChatGPT и аналогичными сервисами до тех пор, пока компания не создаст для этого «безопасную среду». Как утверждается, причиной стала утечка некоторых объемов «внутреннего исходного кода» через ChatGPT. Предположительно, сотрудники пользовались сервисом во время работы над ПО для анализа или поиска багов.
Проблема в том, что компания OpenAI открыто предупреждает пользователей, что диалоги с ботом могут быть использованы для дальнейшего обучения нейросети. То есть теперь ChatGPT в теории может посоветовать код Samsung любому другому программисту. Комментирует IT-обозреватель «Российской газеты» Олег Капранов:
Олег Капранов IT-обозреватель «Российской газеты» «Это не вопрос нейросетей, искусственного интеллекта, ChatGPT, а скорее вопрос обычной корпоративной безопасности: случай, который произошел в Samsung, — это история, когда сотрудник фактически слил ChatGPT часть служебного кода. В данном случае ChatGPT — это черная дыра, в которую просто вкидываются данные, и совершенно непонятно, как они будут дальше обработаны, кому они станут доступны и в каком виде. Для компаний, у которых есть коммерческие тайны, служебные разработки и так далее, это просто уязвимость безопасности. Сотрудник фактически сделал публичной закрытую служебную информацию».
Одновременно тревоги по поводу нейросетей звучат со стороны Google. На этой неделе компанию покинул Джеффри Хинтон, которого The New York Times называет «крестным отцом искусственного интеллекта». Ученый заявил, что до недавнего времени IT-гигант был ответственным стражем на пути нейротехнологий, но с успехом профинансированных Microsoft проектов OpenAI ситуация изменилась. По мнению Хинтона, последствия бесконтрольного развития чат-ботов могут быть «довольно страшными», поскольку они могут превзойти людей по интеллекту и оказаться в «дурных руках».
Можно ли на фоне заявлений очередной видной фигуры о рисках ИИ говорить о реакционной волне в ответ на нейрореволюцию? Ждать ли жесткого регулирования? Рассуждает гендиректор компании Dbrain и автор телеграм-канала AI Happens Алексей Хахунов:
Алексей Хахунов гендиректор компании Dbrain и автор телеграм-канала AI Happens «Каким-то образом остановить разработки, которые в текущий момент есть в компаниях, просто физически невозможно. Даже если Штаты на следующие шесть месяцев закроют все разработки, связанные с генеративными сетями, во-первых, компании, которые находятся в других странах, не обязаны этому следовать. Например, AI Lab компании Google в текущий момент локализован в Великобритании. Опять же, есть компании в Китае, которые занимаются этим направлением. Непонятно, почему они тоже должны следовать этому запрету. В общем, на практике это невозможно. При этом какое-то регулирование в этой области точно требуется. Но есть ощущение, что Илон Маск и многие другие люди, выступающие за запрет, больше спекулируют, нежели реально поддерживают [ограничения]. Потому что Илон Маск примерно около месяца назад говорил, мол, давайте это все запрещать, а после создал новую компанию X.AI, которая занимается разработками в области генеративных сетей».
Наиболее наглядно бытовые риски искусственного интеллекта иллюстрирует свежий журналистский эксперимент The Wall Street Journal. С помощью ряда бесплатных и платных сервисов репортеру издания удалось создать свой ИИ-аватар и не только обмануть свою сестру в безобидном телефонном разговоре о кончине аквариумной рыбки, но и пройти голосовую верификацию при обращении в банк. Хотя всесильным искусственный интеллект пока не назовешь: в обоих случаях, когда журналистка использовала не только сгенерированный голос, но и свой видеопортрет, собеседники сразу замечали подвох.