Италия первой в мире запретила доступ к чат-боту Chat GPT
Лента новостей
Из системы была зафиксирована утечка. Пользователи могли видеть чужие сообщения, имена, фамилии и даже платежную информацию подписчиков сервиса. По словам экспертов, такого в Италии потерпеть не могли. Станет ли это глобальным трендом?
Италия временно запретила доступ к GPT. Заявление об этом опубликовано на сайте итальянского Национального управления по защите персональных данных.
Формальным основанием стала не только утечка персональных данных, но и то, что, хотя ChatGPT и предназначен для пользователей старше 13 лет, на самом деле возраст бот не проверяет. А еще итальянский регулятор недоволен тем, что компания-разработчик — OpenAI не уведомляет пользователей, чьи данные собирает для обучения алгоритмов, подчеркнув, что у разработчика нет для этого «правовой основы». В итоге теперь OpenAI должна устранить все эти ошибки и отчитаться о проделанной работе в течение 20 дней. Иначе ей грозит штраф до 20 млн евро, или до 4% от ее годового глобального оборота.
Такой резкий шаг для Италии не удивителен даже при том, что GPT в стране не особо популярен, говорит журналист из Италии Сергей Иезуитов:
Сергей Иезуитов итальянский журналист «Эта сеть не пользуется такой уж большой популярностью, видимо, это рассчитано только на определенные возрастные группы. Скажем, где-то народ до 30 лет, я думаю, этим пользовался. Потому что среди моих знакомых никого нет, кого бы эта сеть интересовала и кто бы как-то на ней зависал. Я думаю, что, в общем-то, все упирается, конечно, в утечку данных, потому что для итальянца вторжение в личную жизнь, и, если что-то там, допустим, о нем куда-то просочится, то это будет истерика, это будет скандал. И, в общем-то, это общество построено таким образом, что здесь неприкосновенность личной жизни гарантируется, и никто не может на нее посягать».
Как на GPT будут реагировать остальные страны? С учетом того, что на этой неделе сотни бизнесменов и ученых подписали петицию с требованием ввести мораторий на разработку «сильного ИИ». Среди подписантов: миллиардер Илон Маск, сооснователь Apple Стив Возняк, CEO целого ряда других компаний и так далее. Хотя не все верят в искренность людей, подписавших это воззвание. Точнее — искренние там не все, уверен эксперт по ИИ, автор и ведущий YouTube-канала «Душкин объяснит» Роман Душкин:
Роман Душкин эксперт по ИИ, автор и ведущий YouTube-канала «Душкин объяснит» «Все больше и больше склоняюсь к тому, что у товарища Илона подгорает на тему того, что он вышел когда-то из OpenAI, одним из основателей которого он был. Сейчас назад зайти уже не может. И это письмо, конечно, наполнено аллармизмом. Он известный аллармист по поводу искусственного интеллекта. Но, скорее всего, это не связано с тем, что он там за человечество страдает или еще что-то такое. Это чисто конкурентная история на тему неконкурентной борьбы».
Другими словами, есть мнение, что часть подписантов понимают, что сами они со своими компаниями отстали от OpenAI как раз на те самые полгода — вот и просят подождать. С другой стороны, вопросов к тому, как и в какую сторону развивается ИИ — масса, и многим реально не по себе, если не сказать страшно. И эта область явно нуждается в регулировании. В России запрещать в этой отрасли пока вроде ничего не собираются. Напротив, к развитию ИИ готовились заранее, рассказал в интервью Business FM начальник управления национального развития искусственного интеллекта «Сбера», член координационного совета Альянса в сфере ИИ Владимир Авербах:
Владимир Авербах начальник управления национального развития искусственного интеллекта «Сбера», член координационного совета Альянса в сфере ИИ «Два года назад Россия одна из немногих стран, которая приняла национальный Кодекс этики искусственного интеллекта. К ней присоединились компании Альянса (все это было сделано на базе компаний Альянса) и еще более 150 компаний-разработчиков технологий искусственного интеллекта. И Кодекс — это не просто декларация о намерениях. Это сопровождается тем, что есть некий коллектив, который, собственно, и должен вырабатывать позицию относительно спорных этических вопросов».
Этических вопросов масса, причем в ряде случаев этика уже граничит и с Уголовным кодексом. Например, если в ИИ подделать голос живого человека и он по телефону попросит у родных денег, потому что якобы попал в аварию, — это уже не этический вопрос. Но как снять эти риски, не останавливая прогресса? В Китае, например, решили маркировать все, что сделано при помощи ИИ: тексты, изображения и аудио (это как в РФ не «Молоко», а «Молочный продукт» на этикетке) следить за выполнением этих ограничений должна Государственная канцелярия интернет-информации. Всех рисков это, конечно же, не снимет, но уже что-то…