Як "найкращий" підказка виглядає для цього завдання?
Ось стаття, опублікована сьогодні Meta про те, що LLM перевіряє певний текст за допомогою перевірки плану (у цьому випадку це власні відповіді, але їхня стратегія також може застосовуватися до випадку OP): Ланцюжок перевірки зменшує галюцинації у великих мовних моделях. Shehzaad Dhuliawala, Mojtaba Komeili, Jing Xu, Роберта Райлеану, Сянь Лі, Asli Celikyilmaz, Джейсон Вестон
Генерація правдоподібної, але невірної фактичної інформації, що називається галюцинацією, є невирішеною проблемою у великих мовних моделях. Ми вивчаємо здатність мовних моделей обдумувати відповіді, які вони дають, щоб виправити свої помилки. Ми розробляємо метод ланцюга перевірки (CoVe), за допомогою якого модель спочатку (i) створює початкову відповідь; потім (ii) планує перевірочні запитання для перевірки фактів свого проекту; (iii) відповідає на ці запитання незалежно, щоб відповіді не були упередженими іншими відповідями; та (iv) генерує остаточну перевірену відповідь. Під час експериментів ми показуємо, що CoVe зменшує галюцинації під час різноманітних завдань, починаючи від запитань на основі списків із Wikidata, закритої книги MultiSpanQA та генерації довгого тексту.