Home Германский стендИскусственный интеллект в политике
Искусственный интеллект в политике

Искусственный интеллект в политике

Политик Тиемо Вёлькен (СДПГ) произнес в Европарламенте речь, которая была написана искусственным интеллектом ChatGPT. До конца выступления никто из присутствующих не заметил подвоха. Своим поступком Вёлькен стремился привлечь внимание собравшихся к рискам, связанным с использованием ИИ.

На прошлой неделе в зале пленарных заседаний Европейского парламента впервые прозвучала речь, тесно связанная с темой искусственного интеллекта (ИИ). Примечательно то, что юрист и политик Тиемо Вёлькен (СДПГ) написал ее с помощью ChatGPT. «До самого конца никто не заметил, что моя речь — результат работы ИИ», — сказал Вёлькен в интервью RedaktionsNetzwerk Deutschland (RND).

«Спасибо ChatGPT»

Речь Вёлькена была посвящена регулированию политической рекламы и свободе слова. По словам политика, он был приятно удивлен качеством текста, написанного для него ChatGPT. После четырех–пяти необходимых уточнений, «я произнес речь слово в слово». По словам Вёлькена, ИИ был не в курсе некоторых нюансов, принятых в парламенте, — к примеру, это касалось необходимости открывать выступление обязательным приветствием, обращенным к президенту Европарламента, поэтому политику и пришлось внести некоторые коррективы.

Своим выступлением в Европейском парламенте Вёлькен хотел привлечь внимание, в том числе к рискам, связанным с искусственным интеллектом. «В зависимости от базы данных текст, созданный ИИ, может характеризоваться намерением дискриминировать, разжигать расизм или априори содержать пропаганду», — подчеркнул политик в интервью RND. Поэтому он говорил о необходимости разработки соответствующих правил, в рамках которых ИИ не сможет создавать опасные тексты, проблемы с которыми случаются повсеместно. «Однажды на вопрос, кого следует спасать, ИИ ответил, что белых, но не черных детей», — привел пример Вёлькен. Такого рода расистские высказывания не должны допускаться в будущем. Политик также довел до сведения присутствующих, что официально ИИ работает только с данными до 2021 года, поэтому описание текущих событий никак не соответствует действительности, как следствие — требует дополнительной проверки.

В связи с этим напрашивается вывод о том, что стоящая за ChatGPT компания делает ложные заявления по поводу своей базы данных. Вёлькен назвал ее своего рода «черным ящиком», над которым очень сложно установить общественный контроль. Если ИИ действительно располагает набором данных только до 2021 года, он должен отказаться отвечать на вопросы, которые имеют отношение к настоящему моменту. «Вместо этого в ряде случаев ИИ уверенно выдает сомнительные по существу или фактически ложные заявления, основанные на опасном полузнании. В итоге — это не более чем дезинформация, которая, однако, может быть принята человеком за чистую монету», — сказал Вёлькен.

Оригинал статьи