互联网

На этой неделе в области искусственного интеллекта: когда 'открытый исходный код' не такой открытый

Следить за отраслью, такой быстро развивающейся, как искусственный интеллект, непростая задача. Поэтому, пока искусственный интеллект не сможет сделать это за вас, вот удобная подборка недавних новостей в мире машинного обучения, а также значимых исследований и экспериментов, о которых мы не рассказали отдельно.

На этой неделе Meta выпустила последние модели генеративного искусственного интеллекта из серии Llama: Llama 3 8B и Llama 3 70B. Способные анализировать и писать текст, модели, как заявляет Meta, \"раскрываются\" — предназначены быть \"основополагающим элементом\" систем, которые разработчики создают с учетом своих уникальных целей.

\"Мы считаем, что это лучшие модели открытого исходного кода своего класса, без вопросов\", — написала в блоге Meta. \"Мы придерживаемся этикета открытого исходного кода и выпускаем обновления на регулярной основе\".

Есть только одна проблема: модели Llama 3 на самом деле не являются открытым исходным кодом, по крайней мере, не в строгом определении.

Открытый исходный код предполагает, что разработчики могут использовать модели по своему усмотрению, без ограничений. Но в случае с Llama 3 — как и с Llama 2 — Meta наложила определенные лицензионные ограничения. Например, модели Llama не могут использоваться для обучения других моделей. И разработчики приложений с более чем 700 миллионами ежемесячных пользователей должны запросить специальную лицензию у Meta.

Дебаты о том, что такое открытый исходный код, не новы. Но по мере того, как компании в области искусственного интеллекта играют в быстро и свободно с термином, это вводит топливо в длительные философские споры.

В прошлом августе исследование, коавторами которого стали ученые из Карнеги-Меллон, Института искусственного интеллекта и Сигнального фонда, показало, что многие модели искусственного интеллекта, объявленные как \"открытый исходный код\", имеют большие подводные камни — не только Llama. Данные, необходимые для обучения моделей, держатся в секрете. Вычислительная мощность, необходимая для их запуска, находится вне доступа многих разработчиков. И труды по их доведению до совершенства непомерно дороги.

Таким образом, если эти модели на самом деле не являются открытым исходным кодом, то что они такое на самом деле? Это хороший вопрос; определить открытый исходный код в отношении искусственного интеллекта не так уж просто.

Одним из нерешенных вопросов является то, можно ли применить авторское право, на котором базируется открытая лицензия исходного кода, к различным компонентам и частям проекта искусственного интеллекта, в частности, внутренний каркас модели (например, эмбеддинги). Далее следует преодолеть несоответствие между восприятием открытого исходного кода и тем, как на самом деле функционирует искусственный интеллект: открытый исходный код был создан в частичной мере для обеспечения возможности разработчикам изучать и изменять код без ограничений. В случае с искусственным интеллектом, однако, какие ингредиенты вам нужны для изучения и изменения, остается на усмотрение.

Пробираясь сквозь всю неопределенность, исследование Карнеги-Меллона действительно демонстрирует вред, заложенный в том, что техгиганты, такие как Meta, захватывают фразу \"открытый исходный код\".

Часто \"открытые\" проекты искусственного интеллекта, такие как Llama, запускают циклы новостей — бесплатный маркетинг — и обеспечивают технические и стратегические преимущества для создателей проектов. Сообщество открытого исходного кода редко получает те же преимущества, и когда они получают их, они маргинальны по сравнению с создателями.

Вместо демократизации искусственного интеллекта \"открытые\" проекты искусственного интеллекта — особенно те, которые от крупных технологических компаний — склонны укреплять и расширять централизованную власть, говорят коавторы исследования. Это важно помнить, когда на горизонте появляется следующий крупный выпуск \"открытой\" модели.

Вот еще несколько новостей из мира искусственного интеллекта за последние несколько дней:

  • Meta обновляет своего чатбота: Совместно с выпуском Llama 3, Meta обновила своего искусственного интеллекта чатбота на Facebook, Messenger, Instagram и WhatsApp — Meta AI — с использованием Llama 3 в качестве базы данных. Также были запущены новые функции, включая более быструю генерацию изображений и доступ к результатам поиска в сети.
  • Порнография, созданная искусственным интеллектом: Иван пишет о том, как Совет по надзору, полу-независимый совет по политике Meta, обращает внимание на то, как социальные платформы компании обрабатывают явно нецензурные изображения, созданные с использованием искусственного интеллекта.
  • Водяные знаки Snap: Сервис социальных медиа Snap планирует добавить водяные знаки на изображения, созданные искусственным интеллектом на его платформе. Прозрачная версия логотипа Snap с эмодзи в виде сверкающей звезды, новый водяной знак будет добавлен к любому изображению, созданному искусственным интеллектом и экспортированному из приложения или сохраненному в галерее.
  • Новый Атлас: Принадлежащая Hyundai робототехническая компания Boston Dynamics представила своего нового гуманоида Atlas нового поколения, который, в отличие от своего гидравлического предшественника, выполнен полностью на электричестве — и намного дружелюбнее во внешности.
  • Гуманоиды на гуманоидах: Не уступая Boston Dynamics, основатель Mobileye, Амнон Шашуа, запустил новый стартап, MenteeBot, с фокусом на создании бипедальных систем робототехники. В демонстрационном видео показано, как прототип MenteeBot подходит к столу и собирает фрукты.
  • Reddit, переведенный: В интервью с Амандой главный продуктовый директор Reddit Пали Бхат рассказал о том, что в работе находится функция перевода языка, осуществляемая с использованием искусственного интеллекта, чтобы привлечь более глобальную аудиторию к социальной сети, а также об инструменте помощи в модерации, обученном на прошлых решениях и действиях модераторов Reddit.
  • Создание контента на LinkedIn с использованием искусственного интеллекта: LinkedIn тихо начал тестировать новый способ увеличения своих доходов: подписку на премиум-страницу компании LinkedIn, которая — за плату, видимо, в размере $99 в месяц — включает использование искусственного интеллекта для написания контента и набор инструментов для увеличения числа подписчиков.
  • Первопроходец: Компания-мать Google Alphabet в этой неделе представила проект Вестник, свою последнюю попытку применить технологии к решению некоторых крупнейших проблем мира. Здесь это означает использование инструментов искусственного интеллекта для оперативной идентификации природных катастроф, таких как лесные пожары и наводнения.
  • Защита детей с использованием искусственного интеллекта: Ofcom, регулятор, ответственный за соблюдение Закона об онлайн-безопасности Великобритании, планирует запустить изучение того, как искусственный интеллект и другие автоматизированные инструменты могут быть использованы для проактивного обнаружения и удаления незаконного контента в сети, в частности для защиты детей от вредного контента.
  • OpenAI прибывает в Японию: OpenAI расширяется в Японию, открывая новый офис в Токио и планируя выпуск оптимизированной специально для японского языка модели GPT-4.

Больше машинного обучения

Фото: DrAfter123 / Getty Images

Может ли чатбот изменить ваше мнение? Швейцарские исследователи выяснили, что они не только могут изменить ваше мнение, но если они заранее вооружены некоторой персональной информацией о вас, они также могут быть более убедительными в дебате, чем человек с той же информацией.

\"Это Кембриддж-аналитика на стероидах\", — сказал руководитель проекта Роберт Уэст из EPFL. Исследователи подозревают, что модель — в данном случае GPT-4 — черпала знания из своих огромных хранилищ аргументов и фактов в Интернете, чтобы представить более убедительный и уверенный аргумент. Но результат говорит сам за себя. Не недооценивайте силу LLMs в вопросах убеждения, предостерег Уэст: \"В контексте предстоящих президентских выборов США люди беспокоятся, потому что именно здесь эта технология всегда первым попадает на поле боя. Одно мы точно знаем, что люди будут использовать мощь больших языковых моделей, чтобы попытаться повлиять на выборы\".

Почему эти модели так хорошо владеют языком? Это область, имеющая длительную историю исследований, возвращаясь к ELIZA. Если вас интересует один из людей, который принимал участие во многом из этого (и выполнял немало самого), ознакомьтесь с этим профилем Кристофера Мэннинга из Стэнфорда. Ему только что была присуждена медаль Джона фон Неймана. Поздравляем!

В провокационном заголовке интервью другой долгосрочный исследователь в области искусственного интеллекта (также выступавший на сцене TechCrunch), Стюарт Расселл, и постдок штудируют Майкл Коэн размышляют о том, \"Как предотвратить искусственный интеллект от убийства нас всех\". Вероятно, лучше разобраться в этом раньше, чем позже! Однако это не поверхностный разговор

Related Articles

Back to top button Back to top button