Zero-Shot Prompting (Výzva k nulovému výstřelu)

Nulový příkaz zahrnuje generování odpovědi, aniž by se do velkých jazykových modelů vkládaly jakékoli příklady nebo předchozí kontext. Tato technika je ideální, pokud potřebujete rychlé odpovědi na základní otázky nebo obecná témata.

Dnešní velké LLM, jako je GPT-3-5, jsou vyladěny tak, aby se řídily instrukcemi, a jsou vycvičeny na velkém množství dat, takže jsou schopny provádět některé úlohy „nanečisto“.

V předchozím oddíle jsme si vyzkoušeli několik příkladů s nulovým záběrem. Zde je jeden z příkladů, který jsme použili:

Prompt:

Problém: Zařaďte text do neutrální, negativní nebo pozitivní kategorie. 

Text: Myslím, že dovolená je v pořádku.
Sentiment:

Výstup:

Neutrální

Všimněte si, že ve výše uvedené výzvě jsme modelu neposkytli žádné příklady textů spolu s jejich klasifikací, LLM již rozumí „sentimentu“ – to jsou schopnosti nulového snímku při práci.

Ukázalo se, že ladění instrukcí zlepšuje učení nulového snímku Wei et al. (2022).
. Ladění instrukcí je v podstatě koncept dolaďování modelů na souborech dat popsaných pomocí instrukcí. Kromě toho se RLHF

(reinforcement learning from human feedback) bylo přijato škálování ladění instrukcí, při kterém je model přizpůsoben tak, aby lépe odpovídal lidským preferencím. Tento nedávný vývoj podporuje modely, jako je ChatGPT. Všechny tyto přístupy a metody probereme v následujících kapitolách.

Pokud nulový záběr nefunguje, doporučuje se poskytovat v pokynu ukázky nebo příklady, což vede k několikanásobnému zásahu do pokynu. V následující části si ukážeme několikasnímkové výzvy.

V modelech pro zpracování přirozeného jazyka znamená nulové zadání výzvy, která není součástí trénovacích dat modelu, ale model může vygenerovat požadovaný výsledek. Díky této slibné technice jsou velké jazykové modely užitečné pro mnoho úloh.

Abychom pochopili, proč je to užitečné, představme si případ analýzy sentimentu: Můžete vzít odstavce s různými názory a označit je klasifikací sentimentu. Pak můžete natrénovat model strojového učení (např. RNN na textových datech), který vezme odstavec jako vstup a jako výstup vygeneruje klasifikaci. Zjistili byste však, že takový model není adaptivní. Pokud do klasifikace přidáte novou třídu nebo požádáte, aby se odstavce neklasifikovaly, ale shrnuly, je třeba tento model upravit a znovu natrénovat.

Velký jazykový model však není třeba přeškolovat. Pokud víte, jak se správně zeptat, můžete model požádat, aby odstavec klasifikoval nebo shrnul. To znamená, že model pravděpodobně nedokáže zařadit odstavec do kategorií A nebo B, protože význam slov „A“ a „B“ je nejasný. Přesto může zařadit do kategorie „pozitivní sentiment“ nebo „negativní sentiment“, protože model ví, co má být „pozitivní“ a „negativní“. Funguje to proto, že během tréninku se model naučil význam těchto slov a získal schopnost řídit se jednoduchými instrukcemi.