Ученые пришли к выводу о том, что технологические компании скоро исчерпают запас общедоступных данных для обучения больших языковых моделей. Они заявляют, что это притормозит развитие нейросетей.
Изучение всех доступных текстов, созданных человеком придется на 2032 год. Разработчикам Возможно, в этом случае произойдет так называемый «коллапс модели», при котором ИИ будет повторять и усиливать собственные ошибки и предубеждения. Такое мнение высказали исследователи группы Epoch.
Согласно исследованию Epoch, объем текстовых данных, используемых языковыми моделями, растет примерно в 2,5 раза в год, а объем вычислений — примерно в 4 раза в год. Так, самая большая версия LLM Llama 3, обучена на 15 триллионах токенов, каждый из которых это слово или часть слова.
Общий искусственный интеллект — то есть алгоритм, который сможет понимать окружающий мир, так же как человек, может быть создан уже к 2027 году. Такой прогноз дал экс-сотрудник OpenAI Леопольд Ашенбреннер. В начале июня он опубликовал доклад о будущем ИИ, который мгновенно стал сенсацией, — его основные тезисы разлетелись по западным СМИ и популярным подкастам. И это неудивительно, ведь Ашенбреннер предсказал глобальную гонку искусственных интеллектов и возможное возникновение цивилизации сверхразумов. «Собака.ru» изучила 165-страничный (!) документ и коротко пересказывает его ключевые тезисы.
Комментарии (0)