Itinai.com it company office background blured chaos 50 v d206c24f 918d 4335 b481 4a9e0737502d 0
Itinai.com it company office background blured chaos 50 v d206c24f 918d 4335 b481 4a9e0737502d 0

Улучшение больших языковых моделей для кратких и точных ответов с помощью ограниченной цепочки мыслей.

 Optimizing Large Language Models for Concise and Accurate Responses through Constrained Chain-of-Thought Prompting

«`html

Оптимизация больших языковых моделей для кратких и точных ответов с помощью ограниченного метода цепочки мыслей

LLM-модели продемонстрировали впечатляющие способности в решении сложных задач вопросов и ответов, поддерживаемые усовершенствованиями архитектур моделей и методами обучения. Техники, такие как цепочка мыслей (CoT) prompting, стали популярны для улучшения объяснений и точности ответов путем направления модели через промежуточные этапы рассуждений. Однако CoT prompting может привести к увеличению выходных данных, увеличивая время генерации ответа из-за процесса поэтапного декодирования авторегрессивных трансформеров. Это создает вызовы в поддержании интерактивных разговоров, подчеркивая необходимость метрик для оценки краткости выходных данных и стратегий для сокращения излишне длинных цепочек рассуждений.

Исследователи из Department of Excellence in Robotics and AI в Scuola Superiore Sant’Anna и Mediavoice Srl проанализировали, как длина выходных данных влияет на время вывода LLM. Они предложили новые метрики для оценки краткости и правильности. Они представили улучшенную стратегию конструирования подсказок, Constrained-Chain-of-Thought (CCoT), которая ограничивает длину выходных данных для улучшения точности и времени ответа. Эксперименты с LLaMA2-70b на наборе данных GSM8K показали, что ограничение рассуждений до 100 слов улучшило точность и сократило длину выходных данных. Исследование подчеркивает необходимость краткости в рассуждениях LLM и подчеркивает различную эффективность CCoT в разных размерах моделей.

Недавние исследования LLM сосредоточены на улучшении точности, что часто приводит к более длинным и подробным ответам. Эти расширенные выходные данные могут вызвать галлюцинации, когда модель генерирует правдоподобную, но неправильную информацию и излишне длинные объяснения, затмевающие ключевую информацию. Были разработаны различные техники конструирования подсказок для решения этой проблемы, включая CoT prompting, который улучшает рассуждения, но увеличивает время ответа. В исследовании представлены метрики для оценки как краткости, так и правильности, а также предложен улучшенный подход CoT, CCoT, для управления длиной выходных данных при сохранении качества.

Время генерации выходных данных LLM зависит от таких факторов, как архитектура модели, предварительная обработка, декодирование и использованная подсказка. Обычно более длинные выходные данные увеличивают время ответа из-за итеративной природы авторегрессивных моделей. Тесты на различных моделях (Falcon-7b/40b, Llama2-7b/70b) показали, что с увеличением длины выходных данных увеличивается время генерации. CoT prompting, улучшающий правильность ответа, также увеличивает выходные данные и время генерации. Для решения этой проблемы предлагается подход CCoT, который ограничивает длину выходных данных при сохранении точности, что эффективно сокращает время генерации.

Эксперименты оценивают эффективность подхода CCoT по сравнению с классическим CoT, сосредотачиваясь на эффективности, точности и способности контролировать длину выходных данных. С использованием набора данных GSM8K были протестированы различные LLM (например, Llama2-70b, Falcon-40b). Результаты показывают, что CCoT сокращает время генерации и может улучшить или сохранить точность. В исследовании также представлены новые метрики (HCA, SCA, CCA) для оценки производительности модели с учетом правильности и краткости. Более крупные модели, такие как Llama2-70b, больше выигрывают от CCoT, в то время как меньшие модели испытывают затруднения. CCoT демонстрирует улучшенную эффективность и краткую точность, особенно для более крупных LLM.

Исследование подчеркивает важность краткости в генерации текста LLM и представляет CCoT как технику конструирования подсказок для управления длиной выходных данных. Эксперименты показывают, что более крупные модели, такие как Llama2-70b и Falcon-40b, выигрывают от CCoT, но меньшие модели нуждаются в помощи для соответствия длинным ограничениям. Исследование также предлагает новые метрики для оценки баланса между краткостью и правильностью. Будущие исследования будут исследовать интеграцию этих метрик в настройку модели и изучать, как краткость влияет на явления, такие как галлюцинации или неправильные рассуждения в LLM.

Проверьте статью. Вся заслуга за это исследование принадлежит исследователям этого проекта. Также не забудьте подписаться на наш Твиттер и присоединиться к нашему каналу в Телеграме и группе в LinkedIn. Если вам нравится наша работа, вам понравится наша рассылка.

Не забудьте присоединиться к нашему сообществу 47k+ ML SubReddit

Найдите предстоящие вебинары по искусственному интеллекту здесь

Arcee AI представила DistillKit: открытый и простой в использовании инструмент для трансформации моделирования для создания эффективных и высокопроизводительных малых языковых моделей

Если вы хотите, чтобы ваша компания развивалась с помощью искусственного интеллекта (ИИ) и оставалась в числе лидеров, грамотно используйте Optimizing Large Language Models for Concise and Accurate Responses through Constrained Chain-of-Thought Prompting.

Проанализируйте, как ИИ может изменить вашу работу. Определите, где возможно применение автоматизацию: найдите моменты, когда ваши клиенты могут извлечь выгоду из AI.

Определитесь какие ключевые показатели эффективности (KPI): вы хотите улучшить с помощью ИИ.

Подберите подходящее решение, сейчас очень много вариантов ИИ. Внедряйте ИИ решения постепенно: начните с малого проекта, анализируйте результаты и KPI.

На полученных данных и опыте расширяйте автоматизацию.

Если вам нужны советы по внедрению ИИ, пишите нам на itinai. Следите за новостями о ИИ в нашем Телеграм-канале itinainews или в Twitter @itinairu45358

Попробуйте AI Sales Bot здесь. Этот AI ассистент в продажах помогает отвечать на вопросы клиентов, генерировать контент для отдела продаж, снижать нагрузку на первую линию.

Узнайте, как ИИ может изменить ваши процессы с решениями от AI Lab itinai.ru будущее уже здесь!

«`

Бесплатный ИИ: для автоматизации продаж