Консорциум европейских университетов и компаний выпустил полностью открытую языковую модель EuroLLM-22B, обученную на суперкомпьютере и поддерживающую все языки ЕС.
Исследование Oxford Economics по заказу Scale показало, что индустрия аннотации данных в США создала экономику на $5,7 млрд и почти 200 тыс. рабочих мест, привлекая высокообразованных экспертов.
Платформа Manus выпустила обновление 1.6 с флагманским агентом Max, который, по заявлениям, повышает автономность выполнения сложных задач. В релиз также вошли инструменты для мобильной разработки и визуальный редактор изображений Design View.
Эксперты Stanford HAI прогнозируют, что 2026 год станет переломным для индустрии ИИ. На смену всеобщему энтузиазму придет прагматичная оценка реальной пользы, ROI и интерпретируемости моделей, особенно в науке, медицине и юриспруденции.
Cerebras представила Implicit Chain Transformer — архитектуру, решающую проблему отсутствия памяти у языковых моделей. Новая модель передает «вектор намерения» между токенами, что позволяет эффективно поддерживать состояние в задачах вроде сложения по модулю и обхода графа.
Корейский стартап Motif опубликовал отчет с воспроизводимым рецептом обучения LLM, раскрывая четыре практических урока для корпоративных команд: от выравнивания данных до оптимизации памяти.
Главный научный сотрудник Meta Янн Лекун в споре с DeepMind объяснил, почему большие языковые модели — тупиковый путь к AGI.
Creative Commons объявила об осторожной поддержке систем платного сканирования сайтов для ИИ. Это признание новой реальности, где традиционная модель веб-трафика рухнула, а создателям контента нужна компенсация.
Nvidia приобрела SchedMD, компанию-разработчика системы управления заданиями Slurm, что усиливает ее контроль над программным стеком для суперкомпьютеров и ИИ-инфраструктуры.
Ажиотаж вокруг генеративного ИИ отвлекает внимание и ресурсы от фундаментальных прорывов в науке, медицине и промышленности, создавая риск технологического дисбаланса.