Що змушує модель GPT виводити або витікати навчальні дані та як цього уникнути?

Як показано на знімку екрана, модель видає або витікає те, що виглядає як деякі підказки, які використовуються для її навчання. Однак мені не вдалося відтворити проблему. Були деякі інші запитання, які я поставив, перш ніж запитати «чому вас звуть косатка?".
Як фізичній особі, використання API OpenAI є дорогим, тому я хотів використовувати моделі локально та отримувати до них доступ через Python, використовуючи gpt4all. Однак ця помилка стала великим розчаруванням.
Це також може означати, що такі помилки можуть траплятися й у комерційних GPT. Тож нам потрібно знати, що спричиняє це та як цього можна уникнути.

Температура: 0,7, top_k: 40, top p: 0,4, швидкий розмір партії: 128, повторний штраф: 1,18, повторні штрафні маркери: 64.

"введіть

Comments

Leave a Reply