![1_wCKFgpHptRK_JNaGrG8RFg.jpg](https://static-lib.s3.amazonaws.com/cms/1_w_CK_Fgp_Hpt_RK_J_Na_Gr_G8_R_Fg_bb504a1d8e.jpg)
Może słyszałeś lub nie o inżynierii promptów. W skrócie chodzi o „skuteczne komunikowanie się z AI, aby uzyskać to, czego chcesz”.
Większość ludzi nie wie, jak stworzyć dobre polecenia.
Jednakże, to staje się coraz bardziej istotną umiejętnością...
Ponieważ śmieci w = śmieci na wyjściu.
Oto najważniejsze techniki, które potrzebujesz do wywoływania reakcji 👇
Będę się odnosił do modelu językowego jako 'LM'.
Przykładami modeli językowych są ChatGPT od @OpenAI i Claude od @AnthropicAI.
1. Persona/rola pobudzająca
Przypisz rolę sztucznej inteligencji.
Przykład: "Jesteś ekspertem w dziedzinie X. Pomogłeś ludziom w realizacji Y przez 20 lat. Twoim zadaniem jest udzielić najlepszej porady na temat X.
Odpowiedz 'zrozumiałem', jeśli tak to rozumiesz."
Jednym z potężnych dodatków jest:
'Zawsze musisz zadawać pytania przed udzieleniem odpowiedzi, aby lepiej zrozumieć czego szuka pytający.'
Omówię to za chwilę, dlaczego jest to tak ważne.
2. CoT
CoT oznacza "Chain of Thought"
Służy do polecenia LM, aby wyjaśnił swoje rozumowanie.
Przykład:
![1_WB-Q2Wxf3nknx7JI__KjMQ.jpg](https://static-lib.s3.amazonaws.com/cms/1_WB_Q2_Wxf3nknx7_JI_Kj_MQ_3bb907e339.jpg)
3. Bezpośrednie przetwarzanie
Zero-shot oznacza, że model dokonuje predykcji bez dodatkowego szkolenia na podstawie instrukcji.
Zajmę się podejściem few-shot za chwilę.
Zauważ, że zwykle CoT > Zero-shot-CoT
Przykład:
![1_nRZMFzWxahlrklRoUi7bhQ.jpg](https://static-lib.s3.amazonaws.com/cms/1_n_RZM_Fz_Wxahlrkl_Ro_Ui7bh_Q_68ed4fddd8.jpg)
4. Kilka prób (i kilka prób CoT)
Przykładów nauczenia z minimalną ilością danych oznacza, że LM otrzymuje kilka przykładów w ramach podpowiedzi, aby szybciej przystosować się do nowych przykładów.
Przykład:
![1_iN3wq9QBQP6s4AEPPNZrhA.jpg](https://static-lib.s3.amazonaws.com/cms/1_i_N3wq9_QBQP_6s4_AEPPN_Zrh_A_175749d281.jpg)
5. Generowanie wiedzy
Generowanie wiedzy związanej z pytaniem przez uruchomienie LM.
To można użyć do generowania podpowiedzi wiedzy (patrz dalej).
Przykład:
![1_SaClaqnAKa17b38ZQOra-g.jpg](https://static-lib.s3.amazonaws.com/cms/1_Sa_Claqn_A_Ka17b38_ZQ_Ora_g_736f5e7cee.jpg)
6. Generowane wiedza
Teraz, gdy posiadamy wiedzę, możemy podać te informacje do nowego polecenia i zadawać pytania związane z tą wiedzą.
Takie pytanie nazywa się "pytaniem ze wzmocnioną wiedzą".
7. Samoistność
Ta technika jest używana do generowania wielu ścieżek myślowych (łańcuchów rozumowania).
Większościowa odpowiedź jest uznawana za ostateczną odpowiedź.
Przykład:
![1_mChc367_9PHxMwMPsNScYw.jpg](https://static-lib.s3.amazonaws.com/cms/1_m_Chc367_9_P_Hx_Mw_M_Ps_N_Sc_Yw_6389b1d13a.jpg)
8. LtM
LtM oznacza "Najmniej do najwięcej"
Ta technika jest kontynuacją CoT. Dodatkowo, polega ona na podzieleniu problemu na podproblemy, a następnie rozwiązaniu ich.
Przykład:
![1_lt5xMCLKCMEOtJME_N6DGw.jpg](https://static-lib.s3.amazonaws.com/cms/1_lt5x_MCLKCME_Ot_JME_N6_D_Gw_a106d037ed.jpg)