stomp De essentiële gids voor snelle engineering in ChatGPT - Unite.AI
Verbind je met ons

Snelle techniek

De essentiële gids voor snelle engineering in ChatGPT

mm
Bijgewerkt on

Sinds de lancering, ChatGPT heeft furore gemaakt op het gebied van AI en in recordtijd meer dan 100 miljoen gebruikers aangetrokken. De geheime saus voor de indrukwekkende prestaties en veelzijdigheid van ChatGPT ligt in een kunst die subtiel in de programmering is genesteld: snelle engineering.

DALL-E, MidJourney en StableDiffusion, gelanceerd in 2022, onderstreepten het ontwrichtende potentieel van generatieve AI. Maar het was Open AI's ChatGPT die later in 2022 echt centraal kwam te staan. En dit momentum vertoonde geen tekenen van vertraging.

Google's aankondiging van Bard en Meta's Lamma 2  reactie op OpenAI's ChatGPT heeft het momentum van de AI-race aanzienlijk vergroot. Door deze modellen van input te voorzien, sturen we hun gedrag en reacties. Dat maakt ons tot op zekere hoogte allemaal vlotte ingenieurs. De technische industrie heeft het opgemerkt. Durfkapitalisten storten geld in startups die zich richten op snelle engineering, zoals Velijn AI. Bovendien meldt Forbes dat prompt ingenieurs bevelen geven salarissen van meer dan $ 300,000, indicatief voor een bloeiende en waardevolle arbeidsmarkt.

In dit artikel zullen we de wereld van prompt engineering in de context van ChatGPT demystificeren. We verkennen de kernprincipes en -technieken en onderzoeken hun commerciële toepassingen.

Laten we eerst begrijpen hoe ChatGPT functioneert en welke cruciale rol prompt engineering in dit proces speelt.

De mechanica achter ChatGPT Prompt Engineering

De geheime saus achter het succes van ChatGPT is het vermogen om de nuances van menselijke gesprekken te begrijpen en na te bootsen. Het model is getraind op een breed scala aan internettekst, maar cruciaal is dat het geen specifieke documenten of bronnen in zijn trainingsset kent, waardoor generalisatie boven specificiteit wordt gegarandeerd. Deze trainingsaanpak stelt ChatGPT in staat om creatieve reacties te genereren, door complexe dialogen te navigeren en zelfs gevoel voor humor te tonen. Het is echter belangrijk om te onthouden dat ChatGPT het niet echt begrijpt of overtuigingen heeft; het genereert reacties op basis van patronen die het tijdens de training heeft geleerd.

Het vermogen van ChatGPT om menselijke taal op een genuanceerde en contextbewuste manier te begrijpen en erop te reageren, maakt ze ongelooflijk veelzijdige tools.

De mechanica van deze modellen berust op het concept van 'tokens' - afzonderlijke stukjes taal die kunnen variëren van een enkel teken tot een heel woord. Deze modellen werken met een specifiek aantal tokens tegelijk (4096 voor GPT-3.5-Turbo of 8192 of 32768 voor GPT-4), en voorspellen de volgende reeks waarschijnlijke tokens. De modellen verwerken de tokens met behulp van complexe lineaire algebra en voorspellen het meest waarschijnlijke volgende token.


ChatGPT Tokenizer - Snelle engineering - Verenig AI

Een simpele zin van negen woorden kan bijvoorbeeld tien tokens worden. Zelfs een enkel complex woord kan in meerdere tokens veranderen, waardoor het model taal beter begrijpt en genereert. Zelfs talen met complexe woordstructuren, zoals Duits, worden beheerd via tokenisatie.

prompt engineering - Grote taalmodeltoken en voorspellingsillustratie

 

GPT-modellen (Generative Pre-trained Transformer) werken door één token per keer te genereren, beginnend bij het eerste token en doorgaand tot het laatste. Na het genereren van elk token, bezoekt het model de hele reeks opnieuw en verwerkt het opnieuw om het volgende token te genereren. Dit iteratieve proces gaat door totdat het laatste token is gegenereerd, waardoor het genereren van tekst vergelijkbaar is met een grote for-lus.

Maar hier is het addertje onder het gras: de kwaliteit van deze reacties hangt grotendeels af van de prompts die het ontvangt. Net als het leiden van een gesprek met een mens, vereist het begeleiden van een dialoog met ChatGPT een bepaald niveau van vaardigheid en begrip. Dat is waar snelle engineering in het spel komt.

Wat is snelle engineering?

Prompt Engineering is de kunst van het maken van nauwkeurige, effectieve prompts/invoer om AI te begeleiden (NLP/Vision) zoals ChatGPT om de meest kosteneffectieve, nauwkeurige, nuttige en veilige output te genereren.

Snelle engineering beperkt zich niet alleen tot het genereren van tekst, maar heeft ook brede toepassingen in het hele AI-domein. Het wordt steeds vaker gebruikt op gebieden als bots voor robotprocesautomatisering, 3D-middelen, scripts, robotinstructies en andere soorten inhoud en digitale media. Het biedt een unieke mix van logica, codering, kunst en in bepaalde gevallen speciale modifiers.

Hoewel een prompt tekst, afbeeldingen of andere typen invoergegevens in natuurlijke taal kan bevatten, kan de uitvoer aanzienlijk verschillen tussen AI-services en -tools. Elke tool heeft zijn speciale modifiers die het gewicht van woorden, stijlen, perspectieven, lay-out of andere eigenschappen van het gewenste antwoord beschrijven.

Dit veld is essentieel voor het creëren van betere AI-aangedreven diensten en het verkrijgen van superieure resultaten van bestaande generatieve AI-tools. Enterprise-ontwikkelaars gebruiken bijvoorbeeld vaak snelle engineering om Large Language Models (LLM's) zoals GPT-3 aan te passen om een ​​klantgerichte Chatbot of voer taken uit zoals het maken van branchespecifieke contracten.

Dit iteratieve proces van snelle verfijning en het meten van AI-prestaties is een sleutelelement om AI-modellen in staat te stellen zeer gerichte, bruikbare reacties te genereren in verschillende contexten.

Een snelle ingenieur worden

Het vermogen van het GPT-4-model om complexe instructies te begrijpen en ingewikkelde problemen nauwkeurig op te lossen, maakt het tot een hulpmiddel van onschatbare waarde. Er zijn echter verschillende methoden om toegang te krijgen tot de mogelijkheden van dit model, en het begrijpen hiervan kan cruciaal zijn voor de rol van een snelle ingenieur bij het optimaliseren van zowel efficiëntie als kosteneffectiviteit.

Er zijn in wezen twee manieren om met GPT-modellen zoals GPT-4 om te gaan. Eén manier is via de API van OpenAI, waar de kosten worden berekend per invoer- en uitvoertokens. In dit scenario kunnen de kosten per 1K tokens fluctueren op basis van de contextgrootte. In een grotere 32K-context kunnen de kosten bijvoorbeeld oplopen tot $ 0.06 voor invoertokens en $ 0.12 voor uitvoertokens. Bij het afhandelen van een groot aantal verzoeken kunnen de gebruikskosten dus snel oplopen.

Als alternatief werkt ChatGPT, dat gebruikmaakt van het GPT-4-model, op basis van een abonnementsmodel.

Een andere belangrijke taak bij prompt engineering is het afstemmen van modelparameters. Dit proces omvat het aanpassen van de variabelen die het model gebruikt om voorspellingen te doen. Door deze parameters nauwkeurig af te stemmen, kunnen snelle ingenieurs de kwaliteit en nauwkeurigheid van de antwoorden van het model verbeteren, waardoor ze contextueel relevanter en nuttiger worden.

Hoewel veel snelle ingenieurs een technische achtergrond hebben, maakt het multidisciplinaire karakter van het veld het toegankelijk voor personen met verschillende professionele achtergronden. Schrijvers, onderzoekers en zelfs kunstenaars maken steeds vaker gebruik van hun unieke vaardigheden om de effectiviteit van AI-modellen te verbeteren. Deze verschuiving wordt ook weerspiegeld op de arbeidsmarkt, met een groeiend aantal bedrijven dat op zoek is naar snelle ingenieurs met uiteenlopende vaardigheden en achtergronden.

Snel ontwerp en engineering in ChatGPT

Prompt Design en Engineering spelen een cruciale rol bij het optimaliseren van de prestaties van taalmodellen en omvatten meer dan alleen het bedenken van vragen; ze vereisen een diep begrip van het AI-model en een zeer iteratieve en verfijnde aanpak.

ChatGPT Voorbeeldprompt - Prompt Engineering - Unite AI

Snel ontwerp

Prompt-ontwerp is in wezen de kunst en wetenschap van het creëren van de perfecte prompt voor een bepaald groot taalmodel (LLM), zoals ChatGPT, om een ​​duidelijk gesteld doel te bereiken. Het is een mix van:

  • Begrip van de LLM: verschillende taalmodellen kunnen variabel reageren op dezelfde prompt. Bovendien kunnen bepaalde taalmodellen unieke trefwoorden of triggers hebben, die ze op een specifieke manier interpreteren.
  • Domeinkennis: Expertise op het relevante gebied is cruciaal bij het ontwerpen van prompts. Voor het genereren van een prompt om een ​​medische diagnose af te leiden, is bijvoorbeeld medische kennis vereist.
  • Iteratieve aanpak en kwaliteitsmeting: het proces van het creëren van de ideale prompt omvat vaak vallen en opstaan. Daarom is het essentieel om een ​​manier te hebben om de uitvoerkwaliteit te evalueren die verder gaat dan alleen een subjectief oordeel, vooral wanneer de prompt op grotere schaal wordt gebruikt.

Snelle techniek

Prompt engineering is een uitgebreid domein van prompt ontwerp dat verschillende kritieke processen omvat:

  • Ontwerp van prompts op schaal: dit proces omvat het ontwerp van meta-prompts (prompts die andere prompts genereren) en promptsjablonen, dit zijn geparametriseerde prompts die tijdens runtime kunnen worden geïnstantieerd.
  • Toolontwerp en -integratie: Prompts kunnen soms resultaten van externe tools bevatten, en het is cruciaal om deze tools naadloos in het systeem te integreren.
  • Workflow, planning en promptbeheer: het implementeren van een LLM-toepassing, zoals een chatbot, vereist vaak het beheer van bibliotheken met prompts, het plannen en kiezen van de juiste prompts en het efficiënt integreren van verschillende tools.
  • Evaluatie en kwaliteitsborging van prompts: dit aspect omvat het definiëren van statistieken en processen om de prompts zowel automatisch als met menselijke tussenkomst te evalueren.
  • Promptoptimalisatie: de kosten en latentie van het AI-model kunnen afhangen van de keuze van het model en de lengte van de prompt (aantal tokens).

Er zijn veel geautomatiseerde benaderingen, tools en frameworks voor het ontwerpen van prompts ontwikkeld om prompts op schaal te beheren. Het is echter belangrijk om te begrijpen dat geen van deze tools het genuanceerde begrip, beoordelingsvermogen en ervaring van een doorgewinterde snelle ingenieur kan vervangen.

Snelle engineering: technieken en best practices

1) Snelle plaatsing en beschrijving

Het plaatsen van instructies aan het begin van de prompt kan een aanzienlijke invloed hebben op het begrip en de reactie van de AI. Overweeg de taak van het samenvatten van een tekst in opsommingstekens. Een minder effectieve aanpak zou zijn:

Gebruiker: Vat onderstaande tekst samen als opsomming van de belangrijkste punten.
{tekstinvoer hier}

Aan de andere kant zou een effectievere techniek kunnen zijn:

Gebruiker: Vat onderstaande tekst samen als opsomming van de belangrijkste punten.
Tekst: """
{tekstinvoer hier}
"" "

Door de instructies en de context duidelijk te scheiden met symbolen zoals ### of “” kan het AI-model zijn taak en de tekst die het moet verwerken beter afbakenen, waardoor nauwkeurigere en relevantere antwoorden worden gegeven.

Ten tweede kunnen specifieke, beschrijvende en gedetailleerde informatie over de context, het verwachte resultaat, de lengte, het formaat, de stijl, enzovoort de precisie van AI-reacties aanzienlijk verbeteren. Stel dat u een kort overzicht van een wetenschappelijk artikel moet genereren in een boeiende, lekenvriendelijke stijl. Een vage instructie zoals "Vat het wetenschappelijke artikel samen" zou minder effectieve resultaten opleveren in vergelijking met een specifieke, gedetailleerde prompt:

Gebruiker: Genereer een korte (ongeveer 200 woorden), boeiende samenvatting van het volgende wetenschappelijke artikel. De samenvatting moet begrijpelijk zijn voor iemand zonder wetenschappelijke achtergrond, terwijl de belangrijkste bevindingen van het artikel nauwkeurig worden weergegeven.
Papier: """
{wetenschappelijke papieren tekst hier}
"" "

2) Persona-patroon

Het Personapatroon is een strategie die de AI laat functioneren vanuit een bepaald perspectief, zoals een professionele rol of een fictief personage. Deze tactiek stelt het model in staat om output te leveren met betrekking tot de specifieke rollen die de persona zou vervullen. Zo zou men de AI kunnen instrueren om op te treden als cybersecurity-expert tijdens een codereview. Dit patroon is met name handig wanneer gebruikers hulp nodig hebben, maar niet zeker zijn over de exacte details die nodig zijn in de uitvoer.

Neem het volgende als voorbeeld:

Gebruiker: “Neem de persona aan van een senior historicus die gespecialiseerd is in de Franse Revolutie. Leg, gezien die persona, de belangrijkste gebeurtenissen en redenen uit die hebben geleid tot de ondergang van de Franse monarchie.

In dit scenario wordt verwacht dat de AI reageert met een diepgaande analyse van de Franse Revolutie, met de nadruk op de val van de monarchie, zoals een historicus zou doen.

Nieuwe informatie introduceren

ChatGPT beschikt niet over kennis buiten de trainingslimiet, daarom kan het geen informatie geven over recente gebeurtenissen of updates na de training. U kunt echter via uw prompts nieuwe informatie aan het model toevoegen.

Gebruiker: "Wat is cryptocurrency?"
ChatGPT: “Cryptovaluta is een soort digitale of virtuele valuta die cryptografie gebruikt voor beveiliging. De meest bekende cryptocurrency is Bitcoin.”

Als we nu wat meer context aan de prompt toevoegen, kunnen we de uitleg nog intuïtiever maken:

Gebruiker: "Leg het concept van cryptocurrency uit aan een middelbare scholier die digitale financiën studeert"
ChatGPT: “Stel je voor dat je een online videogame speelt en dat je spelgeld kunt verdienen om upgrades of nieuwe personages te kopen. Cryptocurrency is zoiets, maar in plaats van beperkt te blijven tot het spel, kun je het daadwerkelijk gebruiken om goederen en diensten uit de echte wereld te kopen. Het is als digitaal geld dat door geen enkele bank of overheid wordt gecontroleerd.”

3) Beperkingen van de promptgrootte

Het is essentieel om de groottebeperking van ChatGPT te begrijpen, omdat dit rechtstreeks van invloed is op het volume en het type informatie dat we kunnen invoeren. Taalmodellen zijn niet gebouwd om onbeperkte gegevens tegelijk te verwerken. Ze hebben een inherente beperking op de grootte van de prompt die we kunnen maken en invoeren. Deze beperking heeft ingrijpende gevolgen voor het ontwerp en de uitvoering van de prompts.

ChatGPT heeft een tokenlimiet (doorgaans 2048 tokens), die zowel de prompt als het gegenereerde antwoord omvat. Dit betekent dat lange prompts de lengte van het antwoord kunnen beperken. Daarom is het belangrijk om prompts beknopt en toch informatief te houden.

In praktisch gebruik moeten we optreden als redacteuren en selectief de meest relevante informatie kiezen voor de taak die voorhanden is. Stel je voor dat je een paper of een artikel schrijft met een woord- of paginalimiet - je kunt niet zomaar willekeurige feiten dumpen, maar informatie die relevant is voor het onderwerp zorgvuldig selecteren en structureren.

Gebruiker: "Gezien de symbolische beperkingen van het model, vat de belangrijkste gebeurtenissen van de Tweede Wereldoorlog samen in minder dan 1000 woorden."

Door de tokenbeperkingen van het model te erkennen, stuurt deze prompt de AI om een ​​beknopte maar uitgebreide samenvatting van de Tweede Wereldoorlog te geven.

Prompts voor herhaald gebruik: in een conversatiescenario kunt u prompts opnieuw gebruiken of ze verfijnen op basis van eerdere antwoorden. Dit geeft een gespreksstroom en behoudt de context in de interactie.

4) Vraagverfijningspatroon

ChatGPT kan ook helpen bij het verfijnen van uw vragen. Als u bijvoorbeeld een vraag stelt, kan het een beter geformuleerde vraag voorstellen voor nauwkeurigere resultaten.

Het vraagverfijningspatroon houdt in dat de LLM de vragen verfijnt die door de gebruiker worden gesteld. Het is met name handig wanneer gebruikers geen experts zijn in een domein of niet zeker weten hoe ze hun vraag moeten formuleren.

Een voorbeeldprompt kan er als volgt uitzien:

Gebruiker: "Als ik een vraag stel over datawetenschap, stel dan een meer verfijnde vraag voor, rekening houdend met de specifieke kenmerken van statistische analyse, en vraag of ik verder wil gaan met de verfijnde vraag."

Hier wordt van de AI verwacht dat hij de algemene datawetenschapsvragen van de gebruiker verfijnt tot meer gedetailleerde vragen, rekening houdend met aspecten van statistische analyse.

5) Cognitief verificatiepatroon

Het Cognitive Verifier Pattern splitst complexe vragen op in kleinere, beheersbare subvragen. De antwoorden op deze deelvragen worden vervolgens gecombineerd tot een integraal antwoord op de hoofdvraag. Deze aanpak is handig wanneer de initiële vragen te hoog zijn of wanneer er meer duidelijkheid nodig is om een ​​volledig antwoord te geven.

Bijvoorbeeld:

Gebruiker: “Als ik een vraag stel over klimaatverandering, splits die dan op in drie kleinere vragen die je kunnen helpen een nauwkeuriger antwoord te geven. Combineer de antwoorden op deze deelvragen tot het definitieve antwoord.”

In dit scenario splitst de AI de complexe vraag over klimaatverandering op in drie behapbare deelvragen. Na het ontvangen van antwoorden op deze deelvragen, zal de AI deze vervolgens combineren om een ​​uitgebreider en nauwkeuriger antwoord te geven.

Dit patroon omvat het genereren van meerdere vragen om een ​​nauwkeuriger definitief antwoord te krijgen. Het is een proces van verificatie en consolidatie van informatie voor een robuuste uiteindelijke output

6) Promptbenadering met weinig schoten

Few-shot prompting is een krachtige aanpak om AI-modellen te leren specifieke patronen te volgen of taken uit te voeren. Het idee is om het model te voeden met een aantal voorbeelden alvorens de gewenste vraag te stellen. Dit helpt om het gewenste gedrag in te stellen en de reacties van het model te sturen.

Overweeg een scenario waarin een gebruiker probeert een beknopte, overtuigende marketingtekst op te stellen voor een nieuwe technische gadget:

Gebruiker: “Hier zijn enkele voorbeelden van technische marketingexemplaren: 'Ervaar muziek als nooit tevoren met onze geavanceerde draadloze hoofdtelefoons.' 'Leg je wereld vast in verbluffende 4K met onze ultraslanke actiecamera.' Stel, uitgaande van deze voorbeelden, een marketingtekst op voor onze nieuwe door AI aangedreven smartwatch.”

ChatGPT: "Maak uw levensstijl mogelijk met onze door AI aangedreven smartwatch, uw metgezel voor gezondheid, connectiviteit en productiviteit." Het opmerkelijke kenmerk van few-shot learning is dat er geen gedetailleerde beschrijving nodig is van hoe de taak moet worden uitgevoerd. In plaats daarvan vereist het demonstraties van wat er wordt gedaan, waardoor het geschikt kan zijn voor veel toepassingen.

Bovendien gaat deze techniek verder dan eenvoudige input-output-koppeling. Het model kan ook worden geleerd om tussenstappen te hanteren om een ​​doel te bereiken.

7) Gedachtenketen

In hun recente onderzoekspaper, "Chain-of-Thought Prompt lokt redeneren uit in grote taalmodellen” auteurs Jason Wei en team streven ernaar redeneren binnen grote taalmodellen te stimuleren. In plaats van traditionele, directe aanwijzingen te gebruiken, maakt het team gebruik van een reeks onderling verbonden aanwijzingen, die een 'gedachteketen' vormen.

Een gebruiker kan bijvoorbeeld geïnteresseerd zijn in de mogelijke impact van kunstmatige intelligentie op de arbeidsmarkt:

Gebruiker: “Kun je het concept kunstmatige intelligentie kort uitleggen?”

ChatGPT: “Artificiële Intelligentie, of AI, verwijst naar het vermogen van een machine om intelligent menselijk gedrag te imiteren. Het gaat om het ontwerpen van machines die kunnen denken en leren als mensen, waardoor ze onder andere taken kunnen uitvoeren zoals het vertalen van talen, het nemen van beslissingen en het oplossen van problemen.”

Gebruiker: “Hoe beïnvloedt AI de huidige arbeidsmarkt?”

ChatGPT: “AI creëert zowel nieuwe banen als verandert de aard van bestaande banen. Aan de ene kant automatiseert het routinetaken, wat in bepaalde sectoren tot banenverlies leidt. Aan de andere kant creëert het vraag naar functies die voorheen niet bestonden, zoals AI-ethiekfunctionarissen, data-analisten en machine learning-ingenieurs. Bovendien kan AI de menselijke rollen versterken, waardoor mensen taken efficiënter en nauwkeuriger kunnen uitvoeren.”

Chain-of-thought prompting volgt een opeenvolging van gerelateerde prompts en onderhoudt een 'gesprek' met het model dat het leidt naar meer precieze en contextueel geschikte antwoorden.

Inzicht in ChatGPT API en Prompt Engineering vanuit het perspectief van een ontwikkelaar

Vanuit het perspectief van een ontwikkelaar of onderzoeker is snelle engineering een complexer proces. Het omvat het ontwerp van algoritmen en technieken om het AI-model te helpen om prompts beter te begrijpen en erop te reageren. Dit kunnen strategieën zijn voor het omgaan met dubbelzinnige prompts, het identificeren van de context van prompts of het aan elkaar koppelen van prompts om complexere denkprocessen in de AI te stimuleren

 

ChatGPT API-INTERFACE

In de bovenstaande afbeelding communiceert een gebruiker met een chatinterface, mogelijk gemaakt door GPT-4. Hun invoer wordt verbeterd voor duidelijkheid en contextuele consistentie door een gespecialiseerde module voordat deze wordt ingevoerd in het AI-model. De rol van deze module is om de input van de gebruiker te verfijnen en te verbeteren voor een beter begrip en tegelijkertijd de context van het gesprek te behouden. Het antwoord van de AI, gemaakt op basis van de verfijnde prompt, wordt via de chatinterface teruggestuurd naar de gebruiker. De interactiegeschiedenis wordt consequent bijgewerkt, waarbij de conversatiecontext behouden blijft. Over het algemeen illustreert dit diagram een ​​dynamische gebruiker-AI-conversatiestroom die mogelijk wordt gemaakt door snelle engineeringtechnieken.

De ChatGPT-API's interface is ontworpen met verschillende hyperparameters waarmee gebruikers de reacties van de AI op prompts kunnen verfijnen, waardoor ze effectiever en veelzijdiger worden. Deze omvatten de parameters Temperatuur, Maximale lengte en Stopreeksen. Laten we eens kijken hoe ze functioneren en in verschillende contexten kunnen worden gebruikt.

 

Open AI Chatgpt API - Hyperparmeters

1) Temperatuur

De temperatuurparameter beïnvloedt de willekeur van de reacties van de AI. Een hogere temperatuur, zoals 1.0, stimuleert meer willekeurige output, wat resulteert in diverse maar mogelijk off-topic reacties. Daarentegen zet een lagere temperatuur, zoals 0.2, de AI ertoe aan om meer deterministische reacties te selecteren, wat gunstig kan zijn voor gerichte en specifieke resultaten, maar mogelijk een gebrek aan variatie heeft.

Voorbeeld: als u een creatief verhaal schrijft en onvoorspelbare, fantasierijke elementen wilt, stelt u de temperatuur in op een hogere waarde. Een prompt zou kunnen zijn: "Schrijf een kort verhaal over een tijdreizende kat." Met een hoge temperatuur krijg je misschien een wild, fantastisch verhaal met onvoorspelbare wendingen.

2) Maximale lengte

Deze parameter bepaalt de maximale tokenlengte van de uitvoer van het model, inclusief de tokens in de berichtinvoer en berichtuitvoer. Het instellen van een hogere limiet zorgt voor uitgebreidere reacties, terwijl een lagere limiet de output kort en bondig houdt.

Voorbeeld: voor korte antwoorden op trivia-vragen zoals "Wie heeft de Nobelprijs voor Literatuur gewonnen in 2020?" misschien wilt u de maximale lengte op een lage waarde instellen, zodat het antwoord beknopt en direct is.

3) Stop reeksen

Stopreeksen zijn specifieke tekstreeksen die, wanneer het model ze tegenkomt, geen verdere uitvoer meer genereren. Deze functie kan handig zijn om de lengte van de uitvoer te regelen of om het model te instrueren om te stoppen bij logische eindpunten.

Voorbeeld: voor een formele brief kunt u 'Hoogachtend' gebruiken als stopreeks om ervoor te zorgen dat de AI geen aanvullende tekst genereert na het juiste einde van de brief.

4) Bovenste P

De 'Top P'-parameter, ook wel nucleus-sampling genoemd, is een methode die een dynamische selectie biedt van het aantal woorden dat in aanmerking wordt genomen bij elke stap van de voorspellingen van het model. Een lagere waarde, zoals 0.5, leidt tot veiligere, meer gerichte uitvoer. Een hogere waarde, zoals 0.9, omvat een bredere selectie van woorden, wat leidt tot meer diverse outputs.

Voorbeeld: als u een AI maakt om gedichten te schrijven en u wilt dat deze een breed scala aan woordenschat en stilistische uitdrukkingen gebruikt, kunt u 'Top P' op een hogere waarde zetten. Een prompt zou kunnen zijn: "Schrijf een gedicht over de schoonheid van de herfst."

5) Frequentieboete

Frequentiestraf bepaalt hoeveel het model de voorkeur moet geven aan minder frequente woorden. Een hogere straf (tot 1) moedigt het model aan om minder gebruikelijke woorden te gebruiken, terwijl een lagere waarde (tot -1) het model aanmoedigt om meer algemene woorden te gebruiken.

Voorbeeld: als u een zakelijk voorstel probeert te genereren en jargon wilt vermijden, kunt u de frequentiestraf op een lagere waarde instellen om de taal duidelijk en toegankelijk te houden.

6) Aanwezigheidsstraf

De parameter Presence Penalty bepaalt hoeveel het model wordt gestraft voor het genereren van nieuwe ideeën of onderwerpen die niet aanwezig waren in de gespreksgeschiedenis. Hogere waarden moedigen het model aan om vast te houden aan de reeds genoemde onderwerpen, terwijl lagere waarden het model in staat stellen om vrijer nieuwe concepten te introduceren.

Voorbeeld: voor brainstormsessies kunt u de aanwezigheidsstraf op een lagere waarde instellen om een ​​diverse reeks ideeën aan te moedigen. Je zou een prompt kunnen gebruiken als: "Genereer innovatieve marketingstrategieën voor een online educatief platform."

Industrietoepassing van Prompt Engineering

Klantenondersteuning en het genereren van veelgestelde vragen

In de wereld van klantenondersteuning kan het nut van snelle engineering niet genoeg worden benadrukt. Een van de meest baanbrekende toepassingen van AI in deze sector is de opkomst van door AI aangedreven chatbots. Overweeg bijvoorbeeld een e-commerceplatform zoals eBay. Ze maken gebruik van een geavanceerd chatbotsysteem dat is verfijnd met snelle engineering om vragen van klanten te behandelen. De chatbot kan een verscheidenheid aan problemen afhandelen, waaronder, maar niet beperkt tot, leveringsupdates, verwerking van terugbetalingsverzoeken en het beantwoorden van vragen over productspecificaties.

Wanneer een klant vraagt: "Waar is mijn bestelling?", Antwoordt de AI-chatbot niet alleen met een generiek bericht; in plaats daarvan maakt het gebruik van het orderbeheersysteem, haalt real-time gegevens op en geeft een persoonlijk antwoord zoals: "Uw bestelling #1234 is momenteel onderweg en wordt naar verwachting morgenavond afgeleverd." Dergelijke gepersonaliseerde en relevante reacties zijn het directe resultaat van goed ontworpen prompts, die de kern vormen van deze intelligente chatbotsystemen.

Contentcreatie en marketing

Op het gebied van contentcreatie en marketing dient snelle engineering als de hoeksteen van AI-gestuurde innovaties. Bedrijven houden van Grammarly gebruik door AI aangedreven engines om gebruikers te helpen bij het maken van boeiende en grammaticaal correcte inhoud. Deze platforms werken op basis van aanwijzingen en sturen het AI-model aan om suggesties of correcties te genereren die de algehele kwaliteit van de inhoud kunnen verbeteren.

Overweeg een gebruiker die boeiende inhoud wil maken over AI-ontwikkelingen. Ze kunnen een prompt gebruiken als: "Leg de nieuwste ontwikkelingen in AI op een eenvoudige, boeiende manier uit voor beginners." Door gebruik te maken van deze prompt kan de AI een beknopt, lezersvriendelijk stuk schrijven over complexe AI-concepten, waardoor de kenniskloof wordt overbrugd en de interesse van de lezer wordt gestimuleerd. Dit is slechts een van de vele manieren waarop prompt engineering de creatie van inhoud kan verbeteren.

Codeerhulp en code-interpretatie

Snelle engineering is in deze context als een tweerichtingsgesprek tussen de ontwikkelaar en de AI. De ontwikkelaar geeft de AI een prompt - een beschrijving van het probleem of de functionaliteit die ze moeten implementeren, en de AI reageert met een relevant stuk code of suggestie, ter ondersteuning van het softwareontwikkelingsproces.

Daarnaast zijn AI-verbeterde coderingstools, zoals GitHub-copiloot, zijn ontwikkeld met de expertise van OpenAI. Deze geavanceerde tools hebben een uitgebreide training ondergaan om complexe taken uit te voeren, zoals het invullen van onvolledige codebestanden. Ze doen dit ondanks de duidelijke verschillen tussen het proces van het schrijven van code en de taak om het te voltooien.

Onderwijs en gepersonaliseerd leren

De integratie van AI in de onderwijssector heeft de afgelopen jaren een opmerkelijke stijging gekend, waarbij snelle engineering een centrale rol speelt. AI-docenten zijn ontwikkeld om gepersonaliseerde leerervaringen te bieden, aangepast aan het leertempo en de leerstijl van elke student.

Neem bijvoorbeeld een op AI gebaseerd leerplatform zoals Duolingo. Het maakt gebruik van goed ontworpen prompts om de vaardigheid van een student in een nieuwe taal te beoordelen en geschikte oefeningen te bieden. Als een student Frans aan het leren is en moeite heeft met vervoeging, kan de AI-docent op maat gemaakte oefeningen introduceren, zoals "Vervoeg het werkwoord 'manger' (eten) in de tegenwoordige tijd." De prestaties en vooruitgang van de student worden voortdurend beoordeeld en de aanwijzingen worden dienovereenkomstig verfijnd en aangepast, waardoor een gepersonaliseerde en efficiënte leerervaring wordt gegarandeerd.

De onstuitbare opkomst van snelle engineering

Nu we de conclusie naderen van onze diepe duik in snelle engineering, is het van cruciaal belang om te onderstrepen hoe echt ontluikend dit veld is. We staan ​​aan de vooravond van een tijdperk waarin kunstmatige intelligentie verder gaat dan reageren op voorgeprogrammeerde commando's, evolueert naar het verwerken en uitvoeren van zorgvuldig ontworpen prompts die zeer specifieke resultaten opleveren.

De talrijke toepassingen die we hebben onderzocht, van klantenondersteuning tot het maken van inhoud, gegevensanalyse en gepersonaliseerd leren, zijn slechts het topje van de ijsberg. Naarmate het onderzoek op dit gebied intensiever wordt, kunnen we uitkijken naar nog geavanceerdere en genuanceerdere toepassingen van snelle engineering. De convergentie van menselijke creativiteit en AI-vindingrijkheid stuwt ons naar een toekomst waarin kunstmatige intelligentie niet alleen verschillende aspecten van ons leven zal helpen, maar ook zal transformeren.

De afgelopen vijf jaar heb ik me verdiept in de fascinerende wereld van Machine Learning en Deep Learning. Door mijn passie en expertise heb ik bijgedragen aan meer dan 50 verschillende software engineering projecten, met een bijzondere focus op AI/ML. Mijn voortdurende nieuwsgierigheid heeft me ook aangetrokken tot Natural Language Processing, een gebied dat ik graag verder wil verkennen.