Connect with us

La Guida Essenziale all’Ingegneria delle Prompt in ChatGPT “”” {testo dell’articolo scientifico qui} “”” 2) Modello di Persona Il Modello di Persona è una strategia che configura l’AI per funzionare da una specifica prospettiva, come un ruolo professionale o un personaggio fittizio. Questa tattica consente al modello di fornire output relativi ai ruoli specifici che la persona gestisce. Ad esempio, si potrebbe istruire l’AI ad agire come un esperto di sicurezza informatica durante una revisione del codice. Questo modello è particolarmente utile quando gli utenti necessitano di assistenza ma non sono sicuri dei dettagli esatti richiesti nell’output.

Prompt engineering

La Guida Essenziale all’Ingegneria delle Prompt in ChatGPT “”” {testo dell’articolo scientifico qui} “”” 2) Modello di Persona Il Modello di Persona è una strategia che configura l’AI per funzionare da una specifica prospettiva, come un ruolo professionale o un personaggio fittizio. Questa tattica consente al modello di fornire output relativi ai ruoli specifici che la persona gestisce. Ad esempio, si potrebbe istruire l’AI ad agire come un esperto di sicurezza informatica durante una revisione del codice. Questo modello è particolarmente utile quando gli utenti necessitano di assistenza ma non sono sicuri dei dettagli esatti richiesti nell’output.

mm

Dalla sua uscita, ChatGPT ha fatto scalpore nella sfera dell’AI, attirando oltre 100 milioni di utenti in tempi record. Il segreto della performance impressionante e della versatilità di ChatGPT risiede in un’arte sottile annidata nella sua programmazione – l’ingegneria delle prompt.

Lanciato nel 2022, DALL-E, MidJourney e StableDiffusion hanno sottolineato il potenziale disruptivo dell’AI generativa. Ma è stato Open AI‘s ChatGPT a prendere veramente il centro della scena alla fine del 2022. E questo slancio non ha mostrato segni di rallentamento.

L’annuncio di Google’s Bard e la risposta di Meta’s Lamma 2 a OpenAI’s ChatGPT ha amplificato notevolmente lo slancio della corsa all’AI. Fornendo a questi modelli input, stiamo guidando il loro comportamento e le loro risposte. Ciò ci rende tutti ingegneri di prompt in un certo senso. L’industria tecnologica ha preso nota. I venture capitalist stanno investendo fondi in startup che si concentrano sull’ingegneria delle prompt, come Vellum AI. Inoltre, Forbes riporta che gli ingegneri di prompt guadagnano salari superiori a 300.000 dollari, indicativo di un mercato del lavoro fiorente e prezioso.

In questo articolo, demistificheremo il mondo dell’ingegneria delle prompt nel contesto di ChatGPT. Esploreremo i principi e le tecniche fondamentali e esamineremo le loro applicazioni commerciali.

Cominciamo a capire come funziona ChatGPT e il ruolo cruciale dell’ingegneria delle prompt in questo processo.

La Meccanica dell’Ingegneria delle Prompt di ChatGPT

Il segreto del successo di ChatGPT è la sua capacità di comprendere e mimare le sfumature della conversazione umana. Il modello è stato addestrato su una gamma diversificata di testi di Internet, ma non conosce documenti o fonti specifiche nel suo set di addestramento, garantendo la generalizzazione sulla specificità. Questo approccio di addestramento consente a ChatGPT di generare risposte creative, navigare dialoghi complessi e persino esibire un senso dell’umorismo. Tuttavia, è importante ricordare che ChatGPT non comprende veramente o non ha convinzioni; genera risposte in base ai modelli che ha appreso durante l’addestramento.

La capacità di ChatGPT di comprendere e rispondere al linguaggio umano in modo sfumato e consapevole del contesto lo rende uno strumento incredibilmente versatile.

La meccanica di questi modelli si basa sul concetto di ‘token’ – porzioni discrete del linguaggio che possono variare da un singolo carattere a una parola intera. Questi modelli lavorano con un numero specifico di token alla volta (4096 per GPT-3.5-Turbo o 8192 o 32768 per GPT-4), prevedendo la successiva sequenza di token probabili. I modelli elaborano i token utilizzando algebra lineare complessa, prevedendo il token successivo più probabile.


ChatGPT Tokenizer - Ingegneria delle Prompt - Unite AI

Ad esempio, una semplice frase di nove parole potrebbe diventare dieci token. Anche una sola parola complessa potrebbe diventare più token, il che aiuta il modello a comprendere e generare meglio il linguaggio. Anche le lingue con strutture di parole complesse, come il tedesco, vengono gestite attraverso la tokenizzazione.

ingegneria delle prompt - illustrazione del modello linguistico di grandi dimensioni e previsione dei token

 

I modelli GPT (Generative Pre-trained Transformer) funzionano generando un token alla volta, partendo dal primo token e continuando fino all’ultimo. Dopo aver generato ogni token, il modello riprende l’intera sequenza e la elabora nuovamente per generare il token successivo. Questo processo iterativo continua fino a quando non viene generato l’ultimo token, rendendo la generazione del testo simile a un grande ciclo.

Ma ecco il punto – la qualità di queste risposte dipende in gran parte dalle prompt che riceve. Come guidare una conversazione con un essere umano, guidare un dialogo con ChatGPT richiede un certo livello di abilità e comprensione. È qui che entra in gioco l’ingegneria delle prompt.

Cosa è l’Ingegneria delle Prompt?

L’ingegneria delle prompt è l’arte di creare prompt precisi ed efficaci per guidare i modelli di AI (NLP/Vision) come ChatGPT verso la generazione di output più cost-effective, precisi, utili e sicuri.

L’ingegneria delle prompt non si limita alla generazione di testo, ma ha applicazioni più ampie in tutto il dominio dell’AI. Sta diventando sempre più utilizzata in aree come l’automazione dei processi robotici, gli asset 3D, gli script, le istruzioni dei robot e altri tipi di contenuti e media digitali. Fornisce una miscela unica di logica, codifica, arte e, in alcuni casi, modificatori speciali.

Mentre una prompt può includere testo linguistico naturale, immagini o altri tipi di dati di input, l’output può variare notevolmente tra i servizi e gli strumenti di AI. Ogni strumento ha i suoi modificatori speciali che descrivono il peso delle parole, gli stili, le prospettive, il layout o altre proprietà della risposta desiderata.

Questo campo è essenziale per creare servizi di AI più efficienti e ottenere risultati superiori dagli strumenti di AI generativa esistenti. Gli sviluppatori aziendali, ad esempio, utilizzano spesso l’ingegneria delle prompt per adattare i modelli di linguaggio di grandi dimensioni (LLM) come GPT-3 per alimentare un chatbot rivolto al cliente o gestire compiti come la creazione di contratti specifici per l’industria.

Questo processo iterativo di raffinamento delle prompt e misurazione delle prestazioni dell’AI è un elemento chiave per consentire ai modelli di AI di generare risposte altamente mirate e utili in vari contesti.

Diventare un Ingegnere delle Prompt

Il modello GPT-4 è un’ottima risorsa per comprendere istruzioni complesse e risolvere problemi intricati con precisione. Tuttavia, ci sono diversi metodi per accedere a queste capacità del modello, e comprendere questi aspetti può essere cruciale per il ruolo di un ingegnere delle prompt nell’ottimizzare sia l’efficienza che la convenienza economica.

Ci sono fondamentalmente due modi per interagire con i modelli GPT come GPT-4. Uno dei modi è attraverso l’API di OpenAI, dove i costi sono calcolati per token di input e output. In questo scenario, i costi per 1K token possono fluttuare in base alle dimensioni del contesto. Ad esempio, in un contesto più ampio di 32K, il costo potrebbe salire a 0,06 dollari per token di input e 0,12 dollari per token di output. Quindi, quando si gestiscono una grande quantità di richieste, il costo di utilizzo può accumularsi rapidamente.

In alternativa, ChatGPT, che sfrutta il modello GPT-4, funziona su un modello di abbonamento.

Un altro compito chiave nell’ingegneria delle prompt coinvolge la regolazione dei parametri del modello. Questo processo coinvolge la modifica delle variabili che il modello utilizza per effettuare previsioni. Regolando questi parametri, gli ingegneri delle prompt possono migliorare la qualità e la precisione delle risposte del modello, rendendole più rilevanti e utili nel contesto.

Sebbene molti ingegneri delle prompt provengano da un background tecnico, la natura multidisciplinare di questo campo lo rende accessibile a individui con background professionali diversi. Sempre più, scrittori, ricercatori e anche artisti stanno sfruttando le loro abilità uniche per migliorare l’efficacia dei modelli di AI. Questo spostamento si riflette anche nel mercato del lavoro, con un numero crescente di aziende che cercano ingegneri delle prompt con una gamma diversificata di abilità e background.

Progettazione e Ingegneria delle Prompt in ChatGPT

La progettazione e l’ingegneria delle prompt giocano un ruolo critico nell’ottimizzazione delle prestazioni dei modelli linguistici e coinvolgono più che semplicemente la creazione di domande; richiedono una comprensione profonda del modello di AI e un approccio altamente iterativo e raffinato.

Esempio di prompt di ChatGPT - Ingegneria delle Prompt - Unite AI

Progettazione delle Prompt

La progettazione delle prompt, nel suo nucleo, è l’arte e la scienza di creare la prompt perfetta per un modello linguistico di grandi dimensioni (LLM) come ChatGPT, al fine di raggiungere un obiettivo chiaramente definito. È una miscela di:

  • Comprensione dell’LLM: diversi modelli linguistici possono rispondere in modo variabile alla stessa prompt. Inoltre, alcuni modelli linguistici possono avere parole chiave o trigger unici, che interpretano in un modo specifico.
  • Conoscenza del dominio: l’esperienza nel campo rilevante è cruciale quando si progettano le prompt. Ad esempio, generare una prompt per inferire una diagnosi medica richiederebbe conoscenze mediche.
  • Approccio iterativo e misurazione della qualità: il processo di creazione della prompt ideale spesso coinvolge prove ed errori. Pertanto, avere un modo per valutare la qualità dell’output oltre il giudizio soggettivo è vitale, specialmente quando si utilizza la prompt su larga scala.

Ingegneria delle Prompt

L’ingegneria delle prompt è un ambito esteso della progettazione delle prompt che include diversi processi critici:

  • Progettazione delle prompt su larga scala: questo processo include la progettazione di meta-prompt (prompt che generano altre prompt) e modelli di prompt, che sono prompt parametrizzati che possono essere istanziati in fase di esecuzione.
  • Progettazione e integrazione degli strumenti: le prompt possono talvolta includere risultati di strumenti esterni, e integrare questi strumenti in modo trasparente nel sistema è cruciale.
  • Gestione del flusso di lavoro, pianificazione e gestione delle prompt: il deploy di un’applicazione LLM, come un chatbot, spesso richiede la gestione di librerie di prompt, la pianificazione e la scelta della prompt giusta, e l’integrazione efficiente di vari strumenti.
  • Valutazione e garanzia della qualità delle prompt: questo aspetto include la definizione di metriche e processi per valutare le prompt sia in modo automatico che con il coinvolgimento umano.
  • Ottimizzazione delle prompt: il costo e la latenza del modello di AI possono dipendere dalla scelta del modello e dalla lunghezza della prompt (numero di token).

Molti approcci automatizzati alla progettazione delle prompt, strumenti e framework sono stati sviluppati per gestire le prompt su larga scala. Tuttavia, è importante capire che nessuno di questi strumenti può sostituire la comprensione sfumata, il giudizio e l’esperienza di un ingegnere delle prompt esperto.

Tecniche e Migliori Pratiche per l’Ingegneria delle Prompt

1) Posizionamento e Descrizione delle Prompt

Posizionare le istruzioni all’inizio della prompt può avere un impatto significativo sulla comprensione e sulla risposta dell’AI. Consideriamo il compito di riassumere un testo in un elenco puntato. Un approccio meno efficace potrebbe essere:

Utente: Riassumi il testo seguente come un elenco puntato dei punti più importanti.
{testo di input qui}

D’altra parte, un approccio più efficace potrebbe essere:

Utente: Riassumi il testo seguente come un elenco puntato dei punti più importanti.
“””
{testo di input qui}
“””

Separando chiaramente le istruzioni e il contesto con simboli come ### o “”, il modello di AI può meglio delineare il suo compito e il testo che deve elaborare, fornendo così risposte più accurate e rilevanti.

In secondo luogo, essere specifici, descrittivi e dettagliati riguardo al contesto, al risultato atteso, alla lunghezza, al formato, allo stile e così via può migliorare notevolmente la precisione delle risposte dell’AI. Supponiamo di dover generare una breve panoramica di un articolo scientifico in uno stile coinvolgente e accessibile ai non esperti. Un’istruzione vaga come “Riassumi l’articolo scientifico” produrrebbe risultati meno efficaci rispetto a una prompt specifica e dettagliata:

Utente: Genera un breve riassunto (circa 200 parole) dell’articolo scientifico seguente. Il riassunto dovrebbe essere comprensibile a qualcuno senza background scientifico, riflettendo allo stesso tempo i principali risultati dell’articolo.
“Immagina di giocare a un videogioco online e di avere una valuta del gioco che puoi guadagnare per comprare upgrade o nuovi personaggi. La criptovaluta è un po’ come questo, ma invece di essere limitata al gioco, puoi usarla per comprare beni e servizi nel mondo reale. È come denaro digitale che non è controllato da nessuna banca o governo.”

3) Limitazioni della Dimensione della Prompt

Comprendere la limitazione di dimensione di ChatGPT è essenziale poiché influisce direttamente sul volume e sul tipo di informazioni che possiamo inserire. I modelli linguistici non sono progettati per elaborare dati illimitati in una sola volta. Hanno una limitazione intrinseca sulla dimensione della prompt che possiamo creare e inserire. Questa limitazione ha implicazioni profonde per la progettazione e l’esecuzione delle prompt.

ChatGPT ha un limite di token (generalmente 2048 token), che include sia la prompt che la risposta generata. Ciò significa che le prompt lunghe possono limitare la lunghezza della risposta. Pertanto, è importante mantenere le prompt concise ma informative.

Nella pratica, dobbiamo agire come editor, selezionando selettivamente le informazioni più rilevanti per il compito in questione. Immaginate di scrivere un articolo o un documento con un limite di parole o pagine – non potete semplicemente scaricare fatti casuali, ma dovete selezionare e strutturare le informazioni in modo rilevante per l’argomento.

Utente: “Date le limitazioni di token del modello, riassumi gli eventi chiave della Seconda Guerra Mondiale in meno di 1000 parole.”

Riconoscendo le limitazioni di token del modello, questa prompt dirige l’AI a fornire un riassunto conciso ma completo della Seconda Guerra Mondiale.

Ho trascorso gli ultimi cinque anni immergendomi nel fascinante mondo del Machine Learning e del Deep Learning. La mia passione e la mia esperienza mi hanno portato a contribuire a oltre 50 progetti di ingegneria del software diversi, con un focus particolare su AI/ML. La mia curiosità continua mi ha anche portato verso l'elaborazione del linguaggio naturale, un campo che sono ansioso di esplorare ulteriormente.