Як "найкращий" підказка виглядає для цього завдання?

Ось стаття, опублікована сьогодні Meta про те, що LLM перевіряє певний текст за допомогою перевірки плану (у цьому випадку це власні відповіді, але їхня стратегія також може застосовуватися до випадку OP): Ланцюжок перевірки зменшує галюцинації у великих мовних моделях. Shehzaad DhuliawalaMojtaba KomeiliJing XuРоберта РайлеануСянь ЛіAsli CelikyilmazДжейсон Вестон

Генерація правдоподібної, але невірної фактичної інформації, що називається галюцинацією, є невирішеною проблемою у великих мовних моделях. Ми вивчаємо здатність мовних моделей обдумувати відповіді, які вони дають, щоб виправити свої помилки. Ми розробляємо метод ланцюга перевірки (CoVe), за допомогою якого модель спочатку (i) створює початкову відповідь; потім (ii) планує перевірочні запитання для перевірки фактів свого проекту; (iii) відповідає на ці запитання незалежно, щоб відповіді не були упередженими іншими відповідями; та (iv) генерує остаточну перевірену відповідь. Під час експериментів ми показуємо, що CoVe зменшує галюцинації під час різноманітних завдань, починаючи від запитань на основі списків із Wikidata, закритої книги MultiSpanQA та генерації довгого тексту.

"введіть

Previous Article

Чи може використання зовнішніх джерел даних для вдосконалення моделей GPT викликати юридичні проблеми?

Next Article

Найкраща підказка та модель для перевірки фактів у тексті (виявлення дезінформації/фейкових новин)

Write a Comment

Leave a Comment

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *