Home » ChatGPT, который распознает лица? OpenAI опасается, что мир не готов.

ChatGPT, который распознает лица? OpenAI опасается, что мир не готов.

Чат-бот, который миллионы людей использовали для написания курсовых работ, компьютерного кода и сказок, не просто произносит слова. ChatGPT, инструмент OpenAI на основе искусственного интеллекта, также может анализировать изображения — описывать их содержимое, отвечать на вопросы о них и даже распознавать лица конкретных людей. Есть надежда, что в конце концов кто-нибудь сможет загрузить изображение сломанного двигателя автомобиля или загадочной сыпи, а ChatGPT сможет предложить решение.

Чего OpenAI не хочет, чтобы ChatGPT стал машиной для распознавания лиц.

В течение последних нескольких месяцев Джонатан Мосен был среди избранной группы людей, имеющих доступ к расширенной версии чат-бота, который может анализировать изображения. Во время недавней поездки г-н Мосен, руководитель агентства по трудоустройству, который является слепым, использовал визуальный анализ, чтобы определить, какие дозаторы в ванной комнате гостиничного номера были шампунем, кондиционером и гелем для душа. Это намного превышало производительность программного обеспечения для анализа изображений, которое он использовал в прошлом.

«Он сказал мне миллилитровую вместимость каждой бутылки. Он рассказал мне о плитке в душе», — сказал г-н Мозен. «Он описал все это так, как слепой человек должен это услышать. И с одной картинкой у меня были именно те ответы, которые мне были нужны».

По его словам, впервые г-н Мосен может «опрашивать изображения». Он привел пример: текст, сопровождающий изображение, которое он нашел в социальных сетях, описывает его как «женщину со светлыми волосами, выглядящую счастливой». Когда он попросил ChatGPT проанализировать изображение, чат-бот сказал, что это женщина в темно-синей рубашке, делающая селфи в зеркале в полный рост. Он мог задавать уточняющие вопросы, например, какие туфли на ней были и что еще было видно в зеркале.

Read more:  Шольц выступает против ксенофобии в Бад-Зарове

«Это необычно», — сказал 54-летний г-н Мосен, который живет в Веллингтоне, Новая Зеландия, и продемонстрировал технологию в своем подкасте о «жизни вслепую».

В марте, когда OpenAI анонсировала GPT-4, новейшую модель программного обеспечения для своего чат-бота с искусственным интеллектом, компания заявила, что она «мультимодальная», что означает, что она может отвечать на текстовые и графические подсказки. В то время как большинство пользователей могли общаться с ботом только на словах, г-н Мосен получил ранний доступ к визуальному анализу от Be My Eyes, стартапа, который обычно связывает слепых пользователей со зрячими добровольцами и обеспечивает доступное обслуживание клиентов для корпоративных клиентов. клиенты. В этом году Be My Eyes объединилась с OpenAI, чтобы протестировать «зрение» чат-бота перед выпуском функции для широкой публики.

Недавно приложение перестало давать г-ну Мосену информацию о лицах людей, заявив, что они были скрыты из соображений конфиденциальности. Он был разочарован, чувствуя, что должен иметь такой же доступ к информации, как и зрячий человек.

Это изменение отразило обеспокоенность OpenAI тем, что она создала что-то с мощью, которую не хотела выпускать.

По словам Сандхини Агарвал, исследователя политики OpenAI, технология компании может идентифицировать в первую очередь публичных деятелей, таких как люди со страницей в Википедии, но она не работает так всесторонне, как инструменты, созданные для поиска лиц в Интернете, например, от Clearview AI и PimEyes. . По словам г-жи Агарвал, этот инструмент может распознавать на фотографиях исполнительного директора OpenAI Сэма Альтмана, но не других людей, работающих в компании.

Обнародование такой функции раздвинуло бы границы того, что обычно считалось приемлемой практикой для технологических компаний США. Это также может вызвать юридические проблемы в юрисдикциях, таких как Иллинойс и Европа, которые требуют от компаний получения согласия граждан на использование их биометрической информации, включая отпечатки лица.

Read more:  Запрос не может быть удовлетворен

Кроме того, OpenAI опасалась, что инструмент будет говорить о лицах людей то, чего не должен, например, оценивать их пол или эмоциональное состояние. По словам г-жи Агарвал, OpenAI выясняет, как решить эти и другие проблемы безопасности, прежде чем широко выпускать функцию анализа изображений.

«Мы очень хотим, чтобы это был двусторонний разговор с общественностью», — сказала она. «Если мы слышим что-то вроде «на самом деле мы ничего этого не хотим», это то, что мы очень хорошо с этим согласны.».

Помимо отзывов пользователей Be My Eyes, некоммерческое подразделение компании также пытается придумать способы получения «демократического вклада», чтобы помочь установить правила для систем ИИ.

Г-жа Агарвал сказала, что развитие визуального анализа не было «неожиданным», потому что модель обучалась на просмотре изображений и текста, собранных в Интернете. Она указала, что программное обеспечение для распознавания лиц знаменитостей уже существует, например, инструмент от Google. Google предлагает возможность отказа для известных людей, которые не хотят, чтобы их узнавали, и OpenAI рассматривает такой подход.

Г-жа Агарвал сказала, что визуальный анализ OpenAI может вызывать «галлюцинации», подобные тем, которые были замечены при использовании текстовых подсказок. «Если вы дадите ему фотографию кого-то на пороге славы, он может галлюцинировать имя», — сказала она. «Например, если я дам ему фотографию известного технического директора, он может дать мне имя другого технического директора».

Инструмент однажды неточно описал г-ну Мозену пульт дистанционного управления, уверенно сообщив ему, что на нем есть кнопки, которых там не было, сказал он.

Microsoft, вложившая в OpenAI 10 миллиардов долларов, также имеет доступ к инструменту визуального анализа. Некоторые пользователи чат-бота Microsoft Bing с искусственным интеллектом видели, как эта функция появилась в ограниченном выпуске; после загрузки изображений в него они получили сообщение, информирующее их о том, что «размытие конфиденциальности скрывает лица из чата Bing».

Read more:  Ух ты! Mercedes-Benz продает электрические скутеры на 37 миллионов рупий в Индонезии

Сайаш Капур, ученый-компьютерщик и докторант Принстонского университета, использовал этот инструмент для декодирования капчи, визуальной проверки безопасности, которая должна быть понятна только человеческому глазу. Даже взломав код и распознав два непонятных слова, чат-бот отметил, что «капчи предназначены для предотвращения доступа автоматических ботов, таких как я, к определенным веб-сайтам или службам».

«ИИ просто уничтожает все то, что должно отделять людей от машин», — сказал Итан Моллик, доцент, изучающий инновации и предпринимательство в Уортонской школе Пенсильванского университета.

С тех пор как инструмент визуального анализа внезапно появился в версии чат-бота Бинга г-на Моллика в прошлом месяце, что сделало его без какого-либо уведомления одним из немногих людей с ранним доступом, он не выключал свой компьютер, опасаясь его потерять. Он дал ему фотографию приправ в холодильнике и попросил Бинга предложить рецепты для этих ингредиентов. Он придумал «содовую со взбитыми сливками» и «сливочный соус халапеньо».

И OpenAI, и Microsoft, кажется, осознают мощь этой технологии и потенциальные последствия для конфиденциальности. Представитель Microsoft сказал, что компания не «делилась техническими подробностями» о размытии лица, но «тесно сотрудничала с нашими партнерами в OpenAI, чтобы поддержать нашу общую приверженность безопасному и ответственному развертыванию технологий искусственного интеллекта».

2023-07-18 09:00:21


1689708725
#ChatGPT #который #распознает #лица #OpenAI #опасается #что #мир #не #готов

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.