OpenAI открыла своей нейросети ChatGPT доступ в интернет
Помимо доступа в интернет OpenAI позволила платным подписчикам использовать для нейросети сторонние плагины. Изменит ли это принципиально работу нейросети или станет лишь еще одной фишкой для удобства пользователей?
Читать на полной версииНовый функционал ChatGPT и обеспокоенность американских политиков. На этой неделе владелица ChatGPT — компания OpenAI открыла для своей нейросети доступ в интернет и позволила платным подписчикам использовать для него сторонние плагины, которые охватывают широкий спектр областей, включая бизнес, образование, финансы, инвестиции и личные интересы. Тем временем американский Сенат провел слушания о рисках, которые может представлять собой бурное развитие технологий искусственного интеллекта.
Несмотря на то, что прямые конкуренты ChatGPT — в первую очередь нейросеть Bard от Google сразу позволяла им полный доступ во всемирную сеть, лидер, которым является ChatGPT, был ограничен в обучении на основе большого объема данных сентябрем 2021 года. Как сообщала сама нейросеть, сделано это было «в основном из соображений безопасности и приватности». Теперь доступ открыт, хотя и ограничен — ChatGPT может искать информацию в интернете и использовать ее, отвечая на запросы пользователей. Но быстро «забывает» полученную информацию.
Как это ни странно, но OpenAI считает бесконтрольное развитие моделей, основанных на искусственном интеллекте, потенциально опасным. Поэтому и доступ в интернет, и использование сторонних плагинов — это всего лишь удобство для пользователей, которое ничего не меняет принципиально в самом принципе подхода к использованию информации, считает директор технического департамента RTM Group Федор Музалевский:
Федор Музалевский директор технического департамента RTM Group «Принципиально новых возможностей плагины не дают, они дают более широкий охват аудитории. Если раньше для того, чтобы использовать ChatGPT, надо было либо писать какой-то свой собственный плагин, либо вставать в очередь в телеграм-канале, то сейчас это попадет в руки гораздо большего числа людей. Возможности в принципе по генерации, по анализу какой-то информации сохраняются, но именно сама доступность вот этого функционала несет в себе угрозу потому, что не ограничивается ни по возрасту, ни по направлению контента. И в этом основная опасность».
Во время слушаний в Сенате генеральный директор компании-владельца ChatGPT — OpenAI, Сэм Альтман, призвал законодателей регулировать искусственный интеллект, заявив что в текущем буме технологии существует потенциальный дедлайн для принятия регулирующих мер. «Мы считаем, что регулирующее вмешательство со стороны правительств будет критически важным для смягчения рисков со стороны все более мощных моделей», — сказал он в своем выступлении в Сенате. Один из способов, которыми правительство США может регулировать индустрию, это создание лицензионного режима для компаний, работающих над наиболее мощными системами ИИ, считает Альтман. Руководителю компании, за которой стоит сам Microsoft и которая вкладывает в разработку сотни миллионов долларов, подобное регулирование было бы очень удобно, чтобы избавится от возможных конкурентов, подозревает генеральный директор компании Dbrain Алексей Хахунов:
Алексей Хахунов генеральный директор компании Dbrain «Если посмотреть на выступление Сэма Альтмана, то он сказал, что наиболее сильные системы должны попадать под регулирование. Позавчера выходил документ европейский AI Act, в котором Европа описывала, что они хотят, чтобы каждая ИИ-модель, которая используется в Европе, попадала под сертификацию, и это очень плохая идея: сертификация, лицензирование каждой модели приведет к тому, что абсолютное большинство open source решений, где разработчики без какого-то заметного финансирования создают собственные системы, будут либо нелегальны, либо они просто перестанут развиваться. Сертификация — это один-два года, примерно 100-200 тысяч долларов, и естественно, ни одно open source решение себе такое не сможет позволить».
Политики со своей стороны опасаются ряда возможностей, которые открывает ИИ. В первую очередь того, что ИИ может быть использован для создания правдоподобных фейков, которыми может ввести в заблуждение избирателей, или использоваться для распространения дезинформации, потенциального сокращения числа рабочих мест. А как максимум, который сейчас кажется полуфантастическим — для создания новых видов оружия, что может иметь серьезные последствия для международной безопасности.
Вице-президент и главный офицер по вопросам конфиденциальности и доверия IBM Кристина Монтгомери, выступая на сенатских слушаниях, заявила об опасности повторения эпохи становления социальный сетей, которая прошла под лозунгом Марка Цукерберга «Двигайся быстро и ломай вещи. Если вы ничего не ломаете, вы двигаетесь недостаточно быстро». По ее мнению, подход, при котором быстрое развитие и инновации ставятся выше всего, может привести к непредвиденным и потенциально вредным последствиям.