Я не знайомий із специфікою T5, але загалом магістри не можуть легко вивчити "нові" інформацію після того, як вони пройшли навчання/ініціалізацію зразками даних. Додавання нових вибіркових даних може вимагати великого ступеня обробки, можливо, рівного початковому об’єму роботи для навчання моделі.

Натомість нова інформація зазвичай вводиться через введення кожного запиту (наприклад, підказка). Різні моделі мають різні обмеження розміру вхідних даних (зазвичай представлені у вигляді маркерів). Запити щодо нових даних можна робити, розміщуючи їх поруч із запитом. Наприклад, якщо клієнт LLM має доступ до Інтернету, він може перетворити веб-сторінку на текст, а потім надіслати текст разом із запитом користувача до LLM. Однак це потрібно робити для кожного запиту чи сеансу. Після завершення сеансу (або досягнуто вхідного розміру) LLM або почне "забувати" нову інформацію або не допускатиме жодних додаткових запитів.

Деякі LLM (наприклад, ChatGPT) мають доступні плагіни для автоматичного введення джерела інформації в кожну підказку чи розмову, роблячи процес більш прозорим для користувача. Але вони все одно споживають простір для введення/токенів, а кількість інформації, яку можна надати LLM, обмежена.

Previous Article

Як видалити/виправити деякі артефакти зі згенерованого зображення, зберігаючи більшість частин зображення недоторканими?

Next Article

Write a Comment

Leave a Comment

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *