Перейти к основному содержанию
Реклама
Прямой эфир
Экономика
В России выросло количество выдач ипотеки в декабре
Армия
Народный фронт к Новому году передал 10 т подарков военнослужащим в ЛНР
Мир
Россия будет фиксировать факты применения Киевом токсичных химикатов против ВС РФ
Мир
США в январе вернутся к фиксированному потолку госдолга
Мир
Кобахидзе назвал наградой санкции США против Иванишвили
Общество
Вильфанд спрогнозировал аномально теплый январь на Урале и в Западной Сибири
Экономика
Банки перестали давать IT-компаниям кредиты под новые проекты
Мир
Президента Индонезии Субианто пригласили на 80-летие Победы в Москву
Мир
Словакия будет терять по €500 млн в год в случае потери транзита газа из РФ
Общество
В России заблокировали около 6 млн опасных БАДов
Экономика
Биткоин стал самым выгодным активом по итогам 2024 года
Мир
Сенатор США Майк Ли назвал Украину средством отмывания денег
Мир
Количество бездомных в США достигло исторического максимума
Авто
За год эксплуатации автомобили из Китая потеряли в цене почти половину
Общество
Синоптики спрогнозировали мокрый снег и гололед в Москве 28 декабря
Общество
Глава Мариуполя заявил о сдаче более 1 тыс. многоквартирных домов после капремонта
Мир
Вандалы повредили памятник советским солдатам в Словакии
Наука и техника
Ученые предложили датировать исторические события с помощью углей

Российские ученые создали новые методы сжатия нейросетей

0
Фото: РИА Новости/Владимир Трефилов
Озвучить текст
Выделить главное
Вкл
Выкл

Команда Yandex Research совместно с исследователями из Института науки и технологий Австрии (ISTA) и Научно-технологического университета имени короля Абдаллы в Саудовской Аравии (KAUST) разработала новые методы сжатия больших языковых моделей. Об этом сообщила пресс-служба «Яндекса».

Как подчеркнули разработчики, новые алгоритмы позволяют бизнесу сократить расходы на вычислительные ресурсы до восьми раз. Решение предполагает сокращение числа необходимых для работы процессоров, давая возможность запускать нейросеть на устройствах с меньшей вычислительной мощностью. Оно ориентировано на корпорации, стартапы и исследователей, которые запускают нейросети на своём оборудовании.

Решение включает два инструмента. Первый позволяет получить уменьшенную до восьми раз нейросеть, которая быстрее работает и может быть запущена, например, на одном графическом процессоре вместо четырёх. Второй инструмент исправляет ошибки, которые возникают в процессе сжатия большой языковой модели.

Эффективность решения оценивали на популярных моделях с открытым исходным кодом: Llama 2, Llama 3, Mistral и других. Качество ответов оригинальной и сжатой версии нейросети сравнивали на англоязычных бенчмарках — тестах, которые состоят из наборов вопросов из разных областей знаний. По результатам испытаний выяснилось, что метод сохраняет в среднем 95% качества ответов нейросети. Для сравнения, другие популярные инструменты сохраняют для тех же моделей от 59% до 90% качества.

Код опубликован в открытом доступе на GitHub. Специалисты также могут скачать уже сжатые с помощью новых методов популярные модели с открытым исходным кодом. Кроме того, исследователи Yandex Research выложили обучающие материалы, которые помогут разработчикам дообучить уменьшенные нейросети под свои сценарии.

Научная статья экспертов Yandex Research о методе сжатия AQLM была включена в программу международной конференции по машинному обучению ICML. Статья была подготовлена совместно с исследователями из Института науки и технологий Австрии (ISTA) и экспертами ИИ-стартапа Neural Magic.

Читайте также
Прямой эфир