Создатель ChatGPT собрался уходить из Европы из-за очень неудобного закона
Новый законопроект ЕС потребует от разработчиков генеративных ИИ раскрыть информацию о том, как и на чем они обучали свои модели. А этого OpenAI делать категорически не хочет, поскольку может пострадать и бизнес-модель, и банковский счет.Глубокая обеспокоенность
Компания OpenAI, разработчик ChatGPT, может уйти из Европы, если ЕС примет закон о регулировании искусственного интеллекта (ИИ) в том виде, в котором сейчас существует его проект.
Как заявил журналистам глава компании Сэм Олтман (Sam Altman), Акт об искусственном интеллекте Евросоюза, находящийся на финальных этапах разработки, вызывает у него большую озабоченность.
Дело в том, что разработчики законопроекта внесли в него некоторые новые обязательства «фундаментальных моделей» — крупномасштабных ИИ-систем, которые составляют основу сервисов типа ChatGPT и DALL-E.
«Эти детали значат очень многое, — заявил Олтман. — Мы будем пытаться соответствовать им, но если это не получится, придется свернуть деятельность».
Позднее он попытался смягчить свое высказывание, отметив, что планов покинуть Европу у его компании нет, однако в комментариях журналистам Time он заявил, что новое законодательство присвоит ChatGPT статус «источника высокого риска», и это заставит компанию подчиняться усиленным требованиям по безопасности и прозрачности. «Мы либо сможем добиться соответствия этим требованиям, либо нет. Существуют технические ограничения для наших возможностей», — заявил глава OpenAI.
Растворенный копирайт
Кроме «технических ограничений» законопроект представляет потенциальную угрозу бизнес-модели OpenAI. Одно из положений законопроекта требует от создателей фундаментальных моделей раскрыть подробности того, как они создаются и функционируют: какие вычислительные мощности требуются, сколько времени уходит на обучение модели и другие сведения, относящиеся к размеру и функциональности модели.
Ну а главное, требуется раскрыть информацию о том, какие защищенные копирайтом данные использовались для обучения. Компания OpenAI в течение какого-то времени раскрывала эти данные, но постепенно прекратила это делать, ссылаясь на растущую коммерческую значимость ее разработок.
В марте 2023 г. сооснователь OpenAI Илья Суцкевер (Ilya Sutskever) заявил изданию The Verge, что компании вообще не следовало раскрывать такое количество информации, и что держать в секрете методики обучения ИИ и источники данных необходимо для того, чтобы помешать конкурентам копировать работу OpenAI.
Существенно и то, что если OpenAI раскроет источники защищенных копирайтом данных, то это станет поводом для массовой подачи исков со стороны правообладателей. Генеративные ИИ-системы, такие как ChatGPT и DALL-E, обучаются на основе огромных массивов данных, собранных из Всемирной сети. Немалая, если не большая часть этих данных, кому-то принадлежит, но разрешения использовать их никто у правообладателей не спрашивал.
Это уже привело к некоторым искам. Например, против Stability AI в суд подал стоковый ресурс GettyImages: по мнению истца, Stability AI использовали изображения Getty для обучения своего ИИ, не имея на это права.
Против OpenAI, в свою очередь, подала иск американский комик и автор Сара Силверман (Sarah Silverman), которая также утверждает, что OpenAI использовал ее работы при обучении ChatGPT без разрешения. К ее иску уже присоединились два других автора — Кристофер Голден (Christopher Golden) и Ричард Кэдри (Richard Kadrey), сообщает The Guardian.
Любопытно, что Олтман в недавнем прошлом заявил американским политикам, что регулирование ИИ необходимо, но применять его следует в отношении будущих, более мощных систем. Европейский законопроект сосредоточен на нынешних системах.
«Создатели генеративных ИИ оказываются в очень щекотливом положении: если европейский закон об ИИ будет принят в его нынешнем виде, все эти чудеса техники окажутся в первую очередь “паразитическими сущностями”, которые производят коллажи из чужого творчества, — говорит Алексей Водясов, технический директор компании SEQ. — В то время как это секрет Полишинеля, открытое признание этого факта в соответствии с требованиями нового законодательства может сказаться на репутации разработчиков ИИ, а указание на работы конкретных правообладателей, скорее всего, приведет к повальным искам. И если, допустим, Google с его капитализацией сможет позволить себе потратить значительные средства на урегулирование исков, то у OpenAI таких средств может не найтись. В любом случае можно гарантировать, что сейчас в ЕС начнется интенсивное лоббирование в пользу смягчения требований закона».