Можливість самозмінюваних підказок для підвищення продуктивності в Generative AI досліджувалася, наприклад. в https://arxiv.org/abs/2402.02101:

Автоматична оптимізація підказок на основі LLM, яка зазвичай використовує LLM як оптимізатори підказок для самовідображення та вдосконалення підказок, виявилася перспективною результати в останніх дослідженнях. Незважаючи на успіх, базовий механізм цього підходу залишається невивченим, і справжня ефективність LLM як оптимізаторів підказок потребує подальшої перевірки. У цій роботі ми провели комплексне дослідження, щоб розкрити фактичний механізм оперативної оптимізації на основі LLM. Наші висновки показують, що оптимізатори LLM намагаються визначити справжні причини помилок під час обмірковування, схильні бути упередженими своїми попередніми знаннями, а не щиро розмірковувати над помилками. Крім того, навіть якщо відображення є семантично дійсним, оптимізатори LLM часто не можуть створити відповідні підказки для цільових моделей за допомогою одного кроку підказки уточнення, частково через непередбачувану поведінку цільових моделей. На основі спостережень ми представляємо нову "автоматичну оптимізацію поведінки" парадигма, яка безпосередньо оптимізує поведінку цільової моделі більш керованим способом. Ми сподіваємося, що наше дослідження надихне на нові напрямки розробки автоматичної швидкої оптимізації.

Previous Article

Як зрозуміти інструмент оцінки використання офлайн-токенів DeepSeek?

Next Article

Write a Comment

Leave a Comment

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *