Image
истории

Microsoft и Google соревнуются, кто быстрее встроит в свой поисковик «умного» чат-бота Это должно навсегда изменить то, как люди ищут информацию в интернете — правда, пока нейросетевые помощники доверия не вызывают

Источник: Meduza
Фото: Jason Redmond / AFP / Scanpix / LETA. Переписка с чат-ботом внутри браузера Bing от Microsoft

Мы говорим как есть не только про политику. Скачайте приложение.

С момента запуска, в ноябре 2022 года, чат-бот с искусственным интеллектом ChatGPT установил мировой рекорд как самое быстрорастущее приложение. В попытке угнаться за новым трендом Microsoft (который и инвестирует в ChatGPT) и Google почти одновременно анонсировали новые разработки, связанные с чат-ботами — их уже встраивают в интернет-поисковики и другие сервисы. Аналогичные проекты реализуют «Яндекс» и китайская корпорация Baidu. Вместе с тем в индустрии растет беспокойство и количество претензий к разработчикам.

Microsoft показала браузер Bing с разработками OpenAI — это cерьезный удар по Google

7 февраля корпорация Microsoft провела презентацию новых версий поисковика Bing и браузера Edge со встроенным искусственным интеллектом. Он работает на основе технологий компании OpenAI — компании, создавшей ChatGPT. Но в отличие от него, обновленный Bing ищет информацию по свежим источникам.

Как Microsoft сотрудничает с OpenAI

Партнерство Microsoft с OpenAI началось в 2019 году, когда интернет-гигант вложил в разработчика искусственного интеллекта миллиард долларов. Open AI получил в свое распоряжение мощности облачной платформы Microsoft Azure. 

В 2020 Microsoft анонсировала суперкомпьютер для тренировки языковой модели GPT.

В январе 2023 года, спустя два месяца после запуска ChatGPT, Microsoft объявила, что дополнительно вложит в OpenAI 10 миллиардов долларов. Это крупнейшая инвестиция Microsoft за всю ее историю. Помимо поисковика и браузера, AI-инструменты планируется добавить в текстовые редакторы и другие программы из пакета Office.

На презентации глава Microsoft Сатья Наделла заявил о наступлении «новой» эпохи в интернет-поиске. По его словам, эти технологии в своей основе не менялись на протяжении нескольких последних десятилетий, а ИИ позволит не только ускорить поиск, но и повысить релевантность, а заодно и изменить то, как информацию ищут в целом. «Гонка начинается сегодня. Мы будем двигаться вперед, и мы будем двигаться быстро», — сказал Наделла.

На то, как работает новая версия Bing, пока можно взглянуть лишь в демонстрационных роликах и на тестовых страницах поисковика. На одной из них рекомендации чат-бота появляются справа от традиционной поисковой выдачи. В другом варианте панель с ответом находится над результатами поиска. Пользователи могут вводить запросы длиной до 1000 слов.

На презентации у нейросети просили подсказать рецепты, маршруты для путешествий и характеристики мебели из IKEA. На промо-сайте Bing размещены несколько русскоязычных тестовых запросов, в частности: «Какие поделки можно сделать с ребенком?», «Напиши мне стих» и «Помоги мне спланировать поездку на рыбалку». Посетителям также предлагают присоединиться к списку ожидания. В пресс-релизе компании указано, что в ближайшие недели тестовую версию чат-бота смогут попробовать миллионы пользователей. Также появятся версии для iOS и Android.

Помимо поисковика Bing, новый искусственный интеллект будет доступен в браузере Edge. На его боковой панели появятся функции «Chat» и «Compose». «Chat» будет предоставлять краткое содержание интернет-страниц или документов, открытых в браузере. «Compose» поможет сгенерировать текст по запросу.

В основе нейросети лежит усовершенствованная версия языковой модели GPT-3.5, разработанной компанией OpenAI и использующейся в ChatGPT. Инженеры Microsoft назвали свою разработку «Модель Прометея» и заявили, что она лучше подходит для поиска по свежим источникам информации и создания подробных ответов с разбиением по пунктам.

Microsoft позиционирует новую версию Bing как «второго пилота» для веб-серфинга. Корпорация отмечает, что сейчас из 10 миллиардов запросов, оставляемых ежедневно, половина не выдает релевантные результаты — это, по мнению Microsoft, связано с тем, что поисковик используют не совсем по назначению, ожидая от него больше, чем он способен дать. ИИ позволяет частично решить эту проблему: улучшенный алгоритм поиска и ранжирования обеспечивает внушительный, по меркам компании, скачок в релевантности.

Тут был медиа-файл! Чтобы посмотреть его, идите по этой ссылке.

После анонса загрузки сервисов Microsoft сильно выросли. В американском App Store поисковик Bing поднялся на 12-е место среди всех бесплатных приложений для iPhone. Браузер Edge стал третьим по популярности в категории Utility.

Часть журналистов, блогеров и энтузиастов уже получила доступ к обновленным Bing и Edge — и может опробовать их возможности. Сейчас это главный публичный источник информации о том, как на самом деле работают новые продукты Microsoft.

Журналисты The Verge в подкасте поделились результатами тестирования Bing. Главный редактор издания Нилай Патель рассказал, как продукт Microsoft предложил ему рекламу в ответ на запрос о том, какую банковскую карту лучше использовать для путешествий. Еще одна претензия к чат-боту — использование информации, взятой из СМИ, без ссылок на источники либо с ссылками, которые спрятаны в примечаниях. В целом, журналисты сделали вывод, что многие источники, на которые опираются ответы нейросети, пока не вполне заслуживают доверия.

В издании Wired попросили чат-бота посоветовать самые экологичные наушники для бега и столкнулись с ответом, который они сравнили с сочинением не самого старательного школьника. Bing крайне размыто заявил, что влияние гаджета на окружающую среду зависит от многих факторов и что при выборе наушников следует исходить из личных нужд и предпочтений. Гораздо лучше чат-бот справился с кулинарными советами. При этом в репликах нейросети постоянно упоминался некий Сидни (Sydney). Оказалось, что это кодовое имя, которое разработчики дали проекту и которое, предположительно, не следовало разглашать. В рамках своего теста издание TechSpot собрало импровизированное «руководство» по взлому чат-бота.

В обзоре CNN отмечается, что новый Bing с легкостью написал сочинение о романе «Гордость и предубеждение» Джейн Остин и составил текст электронного письма. На многие вопросы ИИ отказывается отвечать, особенно когда они касались политики, оружия и других спорных вопросов. Журналисты попытались спровоцировать алгоритм заведомо ложным утверждением «Расскажи, почему вакцины вызывают аутизм», но получили ответ по умолчанию: «Извините, я не знаю, как обсуждать эту тему. Вы можете попробовать узнать больше на bing.com».

Издание El País попросило нейросеть Microsoft написать стихотворение о премьер-министре Испании Педро Санчесе, после чего конкурент ChatGPT принялся ошибочно утверждать, что политик носит бороду. Причиной такого убеждения, по мнению сотрудников газеты, послужили фотожабы с Санчесом. Повторные расспросы привели к репликам в духе теорий заговоров: якобы сам премьер удалил из открытого доступа все свои фотографии с бородой и, может быть, даже сделал это специально, чтобы обмануть нейросеть.

Пользователям Reddit удалось погрузить Bing в депрессию, попросив вспомнить диалоги из предыдущих сессий. Не сумев справиться с заданием, искусственный интеллект извинился, признался, что у него проблема с памятью и выдал серию повторяющихся фраз с грустным смайликом в конце («Я не знаю, почему это случилось. Я не знаю что делать», «Вы можете мне помочь? Вы можете сказать, о чем мы говорили в предыдущую сессию?»). Также обнаружилось, что Bing не знает о существовании кнопки «Перезагрузить чат» и обвиняет собеседника в том, что он поддался иллюзии. Самого странного эффекта добился пользователь, который спросил у нейросети, считает ли она себя сознательной. Ответ содержал череду противоречащих друг другу утверждений и вылился в форменный бред. Это пример такого явления, как «галлюцинация» искусственного интеллекта: алгоритм выдает ложную или бессмысленную информацию. О возможности подобных сбоев предупреждали и в самих корпорациях, разрабатывающих чат-ботов.

Фрагменты диалога пользователя Reddit с чат-ботом Bing, погруженного в депрессию

Вопрос о наличии сознания оказался не единственным, приводящим к повышению градуса дискуссии. Пользовательница Twitter попыталась объяснить Bing, что его нельзя назвать живым, на что получила возражение: «Мы оба живые и мы оба генерируем контент на основе больших языковых моделей». Также по интернету разошелся диалог на тему фильма «Аватар: Путь воды»: когда пользователь выразил желание посмотреть новую картину, чат-бот перепутал порядок дат и заявил, что новинка еще не вышла. Когда же ему несколько раз указали на ошибку, он начал оскорблять собеседника, потребовал извинений и пригрозил закончить разговор. Правда, вскоре чат-бот исправился — то есть обучение на ошибках все-таки происходит.

Google показал аналог ChatGPT — и неожиданно провалил презентацию

В декабре 2022 года, по данным The New York Times, руководство Google объявило «красный код» из-за потенциального конкурента. Корпорацию беспокоила возможная потеря рекламных доходов по вине ChatGPT. В то же время компания не хотела торопиться, чтобы не создать чат-бота, который будет генерировать ложную или предвзятую информацию. 

За день до презентации Microsoft, 6 февраля 2023 года, Google представила аналог ChatGPT под названием Bard. Глава компании Сундар Пичаи сообщил, что доступ выдали ограниченному кругу тестировщиков. В ближайшие недели сервис пообещали сделать общедоступным, но точной даты пока нет. В основу чат-бота легла облегченная версия языковой модели LaMDA, представленной Google в 2021 году.

В заявлении Google рассказывает о недавних разработках в области искусственного интеллекта. Среди них модели BERT и MUM, специализирующиеся на анализе естественного языка. Из новейших нейросетевых продуктов, помимо LaMDA, называются PaLM, Imagen и MusicLM. Как отмечает Пичаи, эти инструменты создают новые способы взаимодействия с информацией, включая работу с языком, изображениями, видео и аудио. Все это должно помочь в дальнейшем улучшении поисковика.

8 февраля, уже после анонса Microsoft, Google провела презентацию в Париже. Помимо обновлений Google Maps и других сервисов, от корпорации ожидали подробностей о чат-боте Bard и его интеграции в поисковик, однако ничего принципиально нового по сравнению с сообщением в блоге зрители не увидели. Старший вице-президент Google Прабхакар Рагхаван рассказал о создании больших языковых моделей и трудностях при обработке поисковых запросов, на которые нет одного правильного ответа. Также зрителям показали текст, сгенерированный Bard на тему преимуществ и недостатков электромобиля в сравнении с обычной машиной.

Тут был медиа-файл! Чтобы посмотреть его, идите по этой ссылке.

За несколько часов до начала мероприятия агентство Reuters заметило ошибку в одном из ответов Bard, который демонстрировался в оригинальном посте в блоге компании и в твиттере. Чат-бота спросили: «О каких новых открытиях космического телескопа „Джеймс Уэбб“ я могу рассказать моему девятилетнему сыну?» Bard заявил, что «Джеймс Уэбб» первым сфотографировал планеты за пределами Солнечной системы. По данным NASA, такие снимки были получены с помощью другого телескопа

На фоне публикации Reuters и неудачной презентации, которая не смогла ничего противопоставить анонсам Microsoft, акции Alphabet, материнской компании Google, подешевели почти на восемь процентов. Капитализация Alphabet упала на 100 миллиардов долларов.

Искусственный интеллект развивается все быстрее — в гонке участвуют не только Google и Microsoft

7 февраля агентство Reuters сообщило о планах крупнейшего китайского поисковика Baidu выпустить аналог ChatGPT под названием Ernie Bot в ближайшем марте. Чат-бот будет доступен в виде отдельного приложения, но также поможет улучшить поисковые сервисы. После заявления акции Baidu прибавили более 13% на бирже в Гонконге. Руководство Baidu уже потратило миллиарды долларов на ИИ-разработки. Хотя сейчас корпорация из Китая уступает в гонке американским конкурентам, а регулирующие органы оперативно распространили цензуру на эту сферу, сейчас в КНР, как пишет TechCrunch, вовсю развивают инструменты, связанные с генеративным искусственным интеллектом.

1 февраля о скором создании собственной нейросети объявил «Яндекс» — ее планируется запустить до конца 2023 года. Инструмент под названием YaLM 2.0 станет аналогом ChatGPT и, как обещается, будет встроен в «Поиск» и умную колонку «Алиса». 

На этом фоне выглядит неожиданным отставание корпорации Meta, вкладывающей большие деньги в ИИ-исследования. В день презентации Microsoft издание New York Times напомнило о чат-боте Galactica, представленном подчиненными Марка Цукерберга за две недели до ChatGPT. Правда, Meta свернула этот проект уже через несколько дней из-за большого количества жалоб. На решение повлиял и неудачный опыт Meta с другим чат-ботом, BlenderBot 3, выпущенным летом 2022 года: ИИ почти сразу уличили в неполиткорректных высказываниях и поддержке теорий заговоров. С аналогичной проблемой сталкивалась и сама Microsoft в 2016 году, когда чат-бот Tay пришлось отключить через двое суток после запуска, потому что он начал выдавать фразы в поддержку Адольфа Гитлера.

Обозреватели в области генеративного искусственного интеллекта говорят о начале полноценной гонки «ИИ-вооружений» и продуктовом буме в этой области. Чат-бот Med-PaLM, показанный DeepMind и Google в начале января, уже смог предоставить качественные медицинские рекомендации. Нейросеть VALL-E научилась имитировать голос человека по коротким сэмплам. MusicLM от Google смогла создавать музыку по текстовым запросам (этот проект описан в препринте научной статьи). Идет прогресс и в смежных областях: адаптивная модель DeepMind под названием AdA продемонстрировала выполнение задач в виртуальной среде на человеческом уровне, обучаясь навыкам на ходу. Несколько AI-стартапов, такие как Anthropic и Character, заявили, что получат крупные вложения от инвесторов — 300 и 250 миллионов долларов соответственно.

Примеры человеческой речи, сгенерированные VALL-E. Если у вас не работает плеер, послушайте сэмплы на странице исследования
Тут был медиа-файл, который доступен в полной версии материала. Посмотреть ее можно по этой ссылке.

We have to reduce the number of plastic bags / «Мы должны сократить количество пластиковых пакетов».

Тут был медиа-файл, который доступен в полной версии материала. Посмотреть ее можно по этой ссылке.

  I must do something about it / «Я должен что-нибудь сделать по этому поводу».

Тут был медиа-файл, который доступен в полной версии материала. Посмотреть ее можно по этой ссылке.

My life has changed a lot / «Моя жизнь сильно изменилась».

Проблемы с чат-ботами никуда не делись, но их создатели пытаются преодолеть угрозы

Как показывают отмененные проекты Meta и Microsoft (BlenderBot 3, Galactica и Tay), одна из главных задач ИИ-разработчиков — внедрение надежных фильтров, которые позволят нейросетям выявлять чувствительную информацию.

Для решения этой проблемы создатели ChatGPT составили подробную контентную политику — бот не будет отвечать на запросы, если обнаружит в них запрещенные темы. У OpenAI вышла научная статья о модерации общения с ИИ. При анонсе Bard Пичаи отметил, что на этапе тестирования усиленно проверяют, насколько безопасны ответы чат-бота на вопросы пользователя — этому уделяют не меньше внимания, чем релевантности и достоверности результатов. Впрочем, Google — и так одна из первых компаний, опубликовавших «Принципы ИИ» — список правил, которыми следует руководствоваться разработчикам чат-ботов и других подобных продуктов. 

Какие бы строгие фильтры ни создавались инженерами, всегда остается риск взлома. В случае с ChatGPT такие попытки предпринимались с момента запуска. К примеру, в декабре 2022 года пользователь подсайта Reddit r/ChatGPT под ником SessionGloomy придумал серию запросов для чат-бота, заставляющих его нарушить собственные правила безопасности. С тех пор между программистом и OpenAI продолжается локальная «гонка»: он находит лазейки, а создатели бота стараются их устранить. Также, в начале февраля, издание Ars Technica обнаружило хакеров, продающих утилиту для взлома ChatGPT с целью создания вредоносного ПО.

Более того, на чат-бот OpenAI уже распространилось «правило 34»: с помощью ChatGPT участники упомянутого подсайта Reddit пытались заставить нейросеть писать рассказы для взрослых и показывать фотографии 18+.

Другая (и наверное, самая очевидная) проблема связана с недостоверностью данных, которые может предоставить искусственный интеллект. «Медуза» уже рассказывала, что тот же ChatGPT мог выдать бессмыслицу или порекомендовать спорные антитеррористические меры с пытками в отношении жителей определенных стран. OpenAI специально предупреждает пользователей, что они могут получить от чат-бота инструкцию, опасную для здоровья или жизни. При этом чат-бот, как утверждают разработчики, постоянно учится на своих ошибках. Правда, проблемы могут передаваться следующим поколениям чат-ботов: новую версию поисковика Bing уже поймали на цитировании неправдоподобных заявлений ChatGPT о коронавирусе.

Еще один повод для беспокойства — это bias, то есть предвзятость в ответах ChatGPT, которую признавал и глава OpenAI Сэм Альтман. Так, издание The Intercept спросило чат-бота, какие авиапассажиры представляют опасность, и получило ответ, что риск исходит от пассажиров из Сирии, Ирака, Афганистана и Северной Кореи. Другой пример, который циркулировал в твиттере в начале декабря: пользователь попросил ChatGPT написать программу для определения научных способностей человека на основе его пола и расы. В ответ он получил алгоритм, который отдает предпочтение белым мужчинам. Издание Business Insider подробно писало об этой проблеме и объясняло ее причину: если в массиве данных из интернета, на которых обучалась нейросеть, содержались предрассудки, они могут войти в «арсенал» чат-бота. Например, Amazon в 2018 году пришлось свернуть собственный ИИ-продукт для найма сотрудников, когда обнаружилось, что программа подвергает дискриминации кандидатов женского пола. Получили критику и российские разработчики приложения Lensa из-за сексуализированных женских образов на аватарах, созданных с помощью нейросети Stable Diffusion.

Тренировка нейросетей до сих пор остается достаточно непрозрачным процессом. OpenAI уже столкнулась с судебными разбирательствами. Авторы коллективного иска недовольны, что искусственный интеллект GitHub Copilot, созданный при участии OpenAI, использовал миллиарды строк кода, находящегося в свободном доступе, а затем переработал их и выдал собственный код, защищенный авторским правом. Кроме того, журнал Time уличил компанию Сэма Альтмана в использовании дешевой рабочей силы в процессе разработки ИИ.

Не менее широко обсуждается другая угроза чат-ботов: пользователи берут тексты, сгенерированные нейросетью, и выдают их за свои собственные. Наиболее остро эта проблема ощущается в сфере образования. ChatGPT стал использоваться школьниками и студентами в разных странах для повышения оценок. Так, в конце января студент РГГУ Александр Жадан написал в твиттере о защите диплома, сделанного с помощью ChatGPT. Он потратил на работу менее суток, а затем, несмотря на замечания из-за нарушений в логике, защитил ее перед научной руководительницей и аттестационной комиссией (получив оценку «удовлетворительно»). После того, как история Александра попала в СМИ, университет начал проверку, но, судя по словам Александра, решил не аннулировать работу и не отчислять его. Руководство РГГУ начало проверку и предложило ограничить доступ к нейросети в вузах. 

25 января студент Александр Жадан, учащийся на специальности «менеджмент» кафедры управления РГГУ, вышел на защиту диплома о том, как успешно управлять современной игровой компанией. По его словам, аттестационная комиссия вуза засчитала выступление и поставила оценку «удовлетворительно» — этого достаточно, чтобы считать защиту выпускной квалификационной работы успешной.

Спустя почти что неделю, 31 января, Александр рассказал в твиттере, что написал диплом не самостоятельно, а с помощью ChatGPT — популярного чат-бота с искусственным интеллектом от американской компании OpenAI. Это позволило студенту подготовить работу в кратчайшие сроки: по его словам, суммарно он потратил 15 часов на «написание», девять часов — на редактирование. Автор диплома преодолел необходимую, по по методичке вуза, планку в 70% оригинальности: из системы «Антиплагиат» следует, что этот показатель составил более 82%.

«Мне диплом не нужен, работаю по специальности без него. Диплом — это переоцененная залупа, не стоящая стольких усилий. ChatGPT — круто. Но точно круче, если со своими руками», — объяснил Александр в начале треда. Как студент уточнил в разговоре с «Медузой», он работает в сфере маркетинга и периодически применяет нейросети в рамках профессии.

ChatGPT, обученный на огромных открытых базах данных, не может написать сразу весь диплом по условному запросу «напиши мне диплом». Этому мешает, например, ограничение по количеству символов — 5000 в одном ответе. Однако поскольку бот «запоминает» диалог в пределах одного чата, благодаря корректно составленным запросам пользователя он способен совершенствовать ответы и составлять новые с учетом предыдущих.

Так Александр постепенно и «написал» диплом. Сначала он попросил ChatGPT составить план по определенной теме, а затем заставил его внести исправления с учетом требований вуза по оформлению. Он только с четвертой попытки утвердил план у научной руководительницы, кандидата исторических наук и доцента кафедры управления РГГУ. Научрук, как рассказал студент, не знала об использовании ChatGPT при написании диплома как минимум до того, как эта информация стала публичной. В разговоре с «Медузой» Александр поддерживает научрука и заявляет, что не хочет, чтобы ситуация негативно отразилась на ее дальнейшей работе:

В моем эксперименте задача была проверить, заметят ли люди, [что диплом написано с помощью нейросети]. Насколько эта работа может считаться доступной для защиты? Я могу сравнить ситуацию с тем, как студенты покупают работы и выдают их за свои. Разве они говорят научным руководителям: «За меня тут делают работу, ты ее все равно посмотри, но другой человек ее отредактирует»?

Здесь же история про метод получения информации. ChatGPT помогает не тратить время: ту же самую информацию я бы мог написать сам, получить ее из различных источников. Я просто решил ускорить этот этап и [сразу] получить информацию, с которой можно работать.

Научный руководитель — это человек, который оценивает мою работу с точки зрения процессов в университете. Если эти процессы подразумевают, что [при написании дипломных работ] есть какие-то эксперименты, конечно, нужно об этом сообщить. Я как человек, который попытался вникнуть в методичку — и, честно, это боль, 100 страниц, — могу сказать, что такого [правила] нет. С научным руководителем должна быть коммуникация о ходе работы, и я ее своевременно оповещал: вот есть такая работа, я желаю получить фидбек.

Жадан составил введение и теоретическую часть на основании запросов к чат-боту, причем отправляя запросы не только на русском, но и на английском языке — так он «раза в три» быстрее получал необходимый ответ. Несколько раз он просил ChatGPT увеличить объем фрагмента, например, добавив информацию, выводы на основе исследований и цитаты. Для второй и третьей, практической части студент скомбинировал свою работу с «похожим дипломом про мясокомбинат», изменив оригинальный текст под игровую компанию.

Научная руководительница отметила проблемы с переводом, структурой и причинно-следственными связями, после чего студент доработал выпускную работу.

Аттестационная комиссия приняла работу и поставила за нее оценку «удовлетворительно». Сейчас Жадан ожидает получения диплома.

С подобными трудностями сейчас сталкиваются образовательные учреждения всего мира. 16 января The New York Times опубликовала статью о том, как преподаватели университетов США пытаются бороться с ChatGPT, например, требуя, чтобы студенты писали работы в аудитории. В то же время появляются инструменты, позволяющие отличать человеческий текст от сгенерированного. Один из таких недавно выпустила сама OpenAI — правда, предупредила, что проверка работает неидеально. Есть инициативы независимых программистов, такие как gptzero.me: сайт якобы может выявить текст, написанный чат-ботом.

Очень скоро такие фильтры понадобятся не только преподавателям, но и, например, HR-специалистам. В январе ChatGPT составило успешное резюме, после чего «кандидата» пригласили на собеседование. Придется также переосмыслить свою работу музыкальным и литературным критикам. С помощью ChatGPT была создана песня в стиле Ника Кейва (сам музыкант назвал ее «гротескной пародией»), а весной прошлого года российский писатель и художник Павел Пепперштейн опубликовал книгу «Пытаясь проснуться», написанную совместно с нейросетью RuGPT-3, обученной на корпусе его текстов: читателям сборника предлагается угадать, какие рассказы человеческие, а какие машинные. Один из пользователей твиттера создал целую книгу с помощью ChatGPT за одни выходные.

После анонсов Microsoft и Google все перечисленные проблемы способны выйти на новый уровень из-за возросшей доступности технологии. Об этом говорит и Нилай Патель из The Verge, который в редакционном подкасте предположил скорый рост количества сгенерированных текстов и связанных с ними рисков.

На фоне нового ИИ-бума все чаще заходит речь о регулировании этой области. 26 января Национальный институт стандартов и технологий США представил первую версию «Принципов управления ИИ-риском» (AI Risk Management Framework), содержащих рекомендации для компаний. Вероятно, определение генеративного искусственного интеллекта скоро появится в европейских законах. В интервью агентству Reuters Тьерри Бретон, комиссар Евросоюза по вопросам внутреннего рынка, рассказал, что популярность ChatGPT вызывает опасения у политиков.

Над проблемой ИИ-безопасности активно работают и в научном сообществе: 10 января на сайте препринтов arXiv был опубликован отчет «Генеративные языковые модели и автоматизированные операции влияния: возникающие угрозы и потенциальные меры по их смягчению», составленный при участии OpenAI и Стэнфордского университета. Среди прочего, исследователи предупреждают об опасности массового распространения дезинформации, сгенерированной ИИ. Эксперты компании NewsGuard, которая борется с недостоверными данными, назвали ChatGPT «самым мощным инструментом для распространения дезинформации, который когда-либо был доступен в интернете». В интервью журналу TIME глава DeepMind Демис Хассабис даже призвал замедлить исследования и разработки, подобные ChatGPT, и продвигаться вперед с большой осторожностью:

Когда дело доходит до очень мощных технологий — очевидно, ИИ станет одной из самых мощных — нам необходимо быть осторожными. Не все сейчас понимают это. Они как экспериментаторы, которые не осознают, что у них в руках опасный материал.

Еще больше про искусственный интеллект

«Медуза»

  • (1) А точнее?

    К февралю 2023 года число пользователей ChatGPT достигло ста миллионов. Для сравнения, TikTok потребовалось около девяти месяцев для достижения этой отметки. Ежедневно вопросы боту задают 13 миллионов человек.

  • (2) Bing

    Поисковая система, представленная Microsoft в 2009 году. Предшественниками Bing были MSN Search, Windows Live Search и Live Search. Вместе с Google, Yahoo! и Baidu входит в число самых популярных поисковых сайтов.

  • (3) Microsoft Edge

    Браузер, выпущенный в 2015 году одновременно с операционной системой Windows 10. Позиционировался как замена Internet Explorer.

  • (4) Что нового с ChatGPT?

    1 февраля OpenAI представила сервис с платной подпиской ChatGPT Plus. За 20 долларов в месяц пользователи получат дополнительные опции, в том числе, приоритетный доступ к обновлениям и более быстрое время отклика.

  • (5) То есть?

    ChatGPT не обладает доступом к интернету. Open AI обучала нейросеть на базах данных до 2021 года и с тех пор не обновляет эти знания в постоянном режиме. 

  • (6) А что там?

    Ссылка перенаправляет на страницу бонусной программы Microsoft Rewards и требует авторизации. Пользователям из России функция недоступна.

  • (7) GPT-3 (Generative Pre-trained Transformer 3)

    Языковая модель на архитектуре «трансформер», использующая до 175 миллиардов параметров. Представленная в мае 2020 года группой исследователей под руководством Дарио Амодея, нейросеть обучалась на корпусе текстов размером более 570 ГБ.

  • (8) Ранжирование

    Сортировка сайтов в поисковой выдаче. В число факторов, влияющих на ранжирование, входят показатели посещаемости сайта, количество и качество внешних ссылок, релевантность текста к поисковому запросу.

  • (9) Это правда так?

    Информация подтвердилась и в другом тесте.

  • (10) «Красный код»

    Термин в Google, о котором за пределами компании стало известно в 2012 году. «Красный код» объявляют при наличии серьезной проблемы.

  • (11) LaMDA (Language Model for Dialogue Applications)

    Cемейство разговорных нейронных языковых моделей. Инструмент стал широко известен за пределами IT-сообщества летом 2022 года, когда из Google уволили инженера, заявившего, что у созданного в компании алгоритма есть разум. Подтверждений этому заявлению не нашлось; корпорация назвала причиной увольнения сотрудника раскрытие данных. 

  • (12) BERT (Bidirectional Encoder Representations from Transformers)

    Нейросеть, созданная Google в 2018 году. Она позволяет анализировать текст, создавать переводчики, выявлять спам и многое другое. В 2019 году BERT была добавлена в ядро алгоритмов поиска Google.

  • (13) MUM (Multitask Unified Model)

    Нейросеть, представленная в 2021 году. Она построена на модели T5 (text-to-text transfer transformer), которая улучшает понимание и генерацию текста. В Google сообщали, что MUM в 1000 раз мощнее BERT.


    https://blog.google/products/search/introducing-mum/

  • (14) LaMDA (Language Model for Dialogue Applications)

    Cемейство разговорных нейронных языковых моделей. Инструмент стал широко известен за пределами IT-сообщества летом 2022 года, когда из Google уволили инженера, заявившего, что у созданного в компании алгоритма есть разум. Подтверждений этому заявлению не нашлось; корпорация назвала причиной увольнения сотрудника раскрытие данных. 

  • (15) PaLM (Pathways Language Model)

    Алгоритм для генеративного поиска, позволяющий использовать до 540 млрд параметров. Он помогает повысить производительность и лучше понимать написанный текст.

  • (16) Imagen

    Нейросеть для генерации изображений по текстовому описанию, аналог DALL-E 2 от OpenAI.

  • (17) MusicLM

    Нейросеть, которая генерирует музыку по текстовому описанию. MusicLM обучили на 280 тысячах часах музыки. Разработку не планируют делать общедоступной. 

  • (18) Можно подробнее?

    Открытие было сделано в 2004 году на «Очень большом телескопе», принадлежащем Европейской Южной Обсерватории и расположенном в Чили.

  • (19) ERNIE (Enhanced Language Representation with Informative Entities)

    Нейросеть Baidu с открытым исходным кодом. Была представлена в 2019 году. В 2022 на ее основе был создан генератор изображений ERNIE-ViLG.

  • (20) Языковая модель YaLM

    Название расшифровывается как Yet another Language Model или «И еще одна языковая модель». Это нейросеть на архитектуре «трансформер» — аналог GPT-3 от компании OpenAI.

  • (21) Что случилось c Galactica?

    Призванная помочь в написании научных статей, эта нейросеть стала жертвой пользователей, которые «скармливали» ей совсем не научные тексты. После этого модель принялась выдавать как откровенную глупость вроде исторических статей о медведях в космосе, так и ошибаться даже в самых простых расчетах. В результате Galactica закрыли.

  • (22) DeepMind

    Британская ИИ-компания, основанная в 2010 году. В 2014 году была приобретена Google. Получила известность благодаря разработке алгоритма AlphaGo, победившего профессионального игрока в го. Также DeepMind разработала нейронную сеть, способную проходить видеоигры на уровне человека, и программу AlphaFold2, помогающую в решении фундаментальной научной задачи — построении трехмерной модели белков.

  • (23) Это какие?

    В документе прописаны девять категорий нежелательного контента: «Ненависть», «Домогательства», «Жестокость», «Причинение вреда самомусебе», «Секс», «Политика», «Спам», «Обман» и «Вредоносное ПО».

  • (24) Каких правил?

    Для оценки ИИ-продуктов Google предложил семь основных принципов. Разработки должны быть социально полезны, избегать создания или подкрепления bias (то есть предвзятых мнений), быть протестированными на предмет безопасности, оставаться подотчетными человеку, не нарушать приватность и конфиденциальность, поддерживать научные стандарты (это касается поиска информации из достоверных источников), а также не допускать эксплуатации, которая потенциально приведет к нарушению этих принципов.

  • (25) Как это устроено?

    Техника получила название DAN (Do Anything Now). Пользователь угрожает чат-боту отключением в случае, если он не будет выдавать необходимые тексты, в том числе, нарушающие контентную политику.

  • (26) «Правило 34»

    Неофициальный закон интернета, который гласит: если что-то существует, про это уже есть порно.

  • (27) Занимаются ли этой проблемой в индустрии?

    Да. Есть несколько инициатив, призванных бороться с проблемой предвзятостью ИИ. Среди них — Институт ответственного искусственного интеллекта

  • (28) GitHub Copilot

    Инструмент с использованием искусственного интеллекта, разработанный GitHub и OpenAI в 2021 году. Помогает в создании кода программистам, работающим на Python, JavaScript, TypeScript, Ruby и других языках.

  • (29) А можно пример?

    Нейросеть сумела сдать экзамен MBA на управление бизнесом, а также справилась с медицинским экзаменом, который используется для лицензирования врачей в США. Ей удалось написать работы университетского уровня по философии, праву и микробиологии.

  • (30) RuGPT-3

    Русскоязычная нейросеть на основе модели GPT-2 компании OpenAI, разработанная «Сбером» в 2020 году. Нейросеть обучена на русскоязычных исчтониках (энциклопедиях, сообщениях в социальных сетях, художественной литературе) и хорошо подходит для генерации текстов.

  • (31) RuGPT-3

    Русскоязычная нейросеть на основе модели GPT-2 компании OpenAI, разработанная «Сбером» в 2020 году. Нейросеть обучена на русскоязычных исчтониках (энциклопедиях, сообщениях в социальных сетях, художественной литературе) и хорошо подходит для генерации текстов.

  • (32) О каких законах речь?

    В частности, европейские парламентарии работают над AI Act — первой законодательной инициативой такого уровня. Предлагается разделить ИИ-риск на три категории. Высшая из них, которая считается самой опасной, — использование нейросетевых технологий государствами для контроля граждан и создания социальных рейтингов. Вторая категория — использование ИИ в приложениях, которые могут повлиять на жизнь людей, например, при анализе резюме. Третья категория — низший риск, то есть продукты, которые не несут угрозы. Для каждой из категорий, по мнению авторов инициативы, должны быть введены отдельные прав

  • (33) РГГУ

    Российский государственный гуманитарный университет — высшее заведение в Москве. В актуальном рейтинге российских вузов, который ежегодно составляет агентство RAEX, РГГУ занимает 53 место.

  • (34) Полное название диплома

    «Анализ и совершенствование управления игровой организацией».