Учёные «Яндекса», ВШЭ и MIT разработали метод сжатия LLM без потери качества


Квантировать модели теперь можно прямо на смартфоне или ноутбуке.

Специалисты Yandex Research, НИУ ВШЭ, Массачусетского технологического института и других ведущих вузов разработали метод быстрого сжатия больших языковых моделей (LLM) без потери качества. Технология называется HIGGS (Hadamard Incoherence with Gaussian MSE-optimal GridS).

Метод позволяет сжимать нейросети без дообучения и вычислительно сложной оптимизации параметров. Как уточняют авторы разработки, теперь квантизацию (то есть сжатие) модели можно выполнить прямо на смартфоне или ноутбуке — раньше процедура требовала мощностей серверного уровня.

С помощью метода уже удалось сжать DeepSeek-R1 на 671 млрд параметров и Llama 4 Maverick на 400 млрд параметров. Эксперименты показали, что HIGGS дал лучшие результаты среди других способов квантизации без использования данных.

Разработку опубликовали в открытый доступ — ознакомиться с HIGGS можно на Hugging Face и GitHub, а научную статью про него можно прочитать на arXiv. Авторы исследования расскажут о методе на одной из крупнейших в мире конференций по искусственному интеллекту — NAACL, которая пройдёт в США с 29 апреля по 4 мая.

Источник

Подписывайтесь на наши соц. сети и получайте больше новостей!

Комментарии

Содержание

В начало
Комментарии

StarRupture: Все рецепты крафта и способы их изготовления

Представлена невероятная фигурка Эшли Грэм от Infinity Studio за 3600 долларов

The Elder Scrolls Online вводит платный боевой пропуск Tamriel Tome

My Winter Car - Как купить первую машину

Apex Legends: Разработчики сообщили о решении проблемы с доступом к аккаунтам

Разрабов Lords of the Fallen 2 обвиняют в плагиате у FromSoftware — фанаты оправданиям не верят

Намек Xbox вселил в очередной раз надежду в тех, кто судорожно ждет The Elder Scrolls 6

StarRupture: Где найти все карты доступа для базы Редлиф


Сайт может использовать файлы cookie для работы, улучшения сервиса и показа персональных предложений. Подробнее об этом в Политике конфиденциальности.
Продолжая использовать сайт, Вы соглашаетесь с Условиями использования и Политикой cookie.
Закрыть
licnt20A2