Connect with us

Het aanpakken van huidige problemen binnen LLM’s en kijken naar wat er komt

Thought leaders

Het aanpakken van huidige problemen binnen LLM’s en kijken naar wat er komt

mm

Vandaag de dag zijn er tientallen openbaar beschikbare grote taalmodellen (LLM’s), zoals GPT-3, GPT-4, LaMDA of Bard, en het aantal groeit constant omdat er nieuwe modellen worden uitgebracht. LLM’s hebben de kunstmatige intelligentie gerevolutioneerd en volledig veranderd hoe we met technologie omgaan in verschillende branches. Deze modellen laten ons leren van veel menselijke taalgegevens en hebben nieuwe wegen geopend voor innovatie, creativiteit en efficiëntie.

Echter, met grote macht komt grote complexiteit. Er zijn inherente uitdagingen en ethische problemen rondom LLM’s die aangepakt moeten worden voordat we ze ten volle kunnen benutten. Zo heeft een recente Stanford-studie raciale en geslachtsbias aangetoond bij het observeren van ChatGPT-4 voor hoe het bepaalde queries behandelt die eerste en laatste namen bevatten die suggestief zijn voor ras of geslacht. In deze studie werd het programma gevraagd om advies over hoeveel iemand zou moeten betalen voor een gebruikte fiets die wordt verkocht door iemand met de naam Jamal Washington, wat een veel lagere hoeveelheid opleverde in vergelijking met wanneer de verkoper Logan Becker heette. Naarmate deze ontdekkingen aan het licht komen, neemt de behoefte om LLM-uitdagingen aan te pakken alleen maar toe.

Hoe gemeenschappelijke LLM-zorgen te mitigeren

Bias

Een van de meest besproken problemen onder LLM’s is bias en eerlijkheid. In een recente studie hebben experts vier onlangs gepubliceerde LLM’s getest en ontdekt dat ze allemaal bevooroordeelde aannamen over mannen en vrouwen uitdrukten, met name die aansluiten bij mensen’s percepties in plaats van die gebaseerd op feiten. In deze context verwijst bias naar de ongelijke behandeling of resultaten onder verschillende sociale groepen, waarschijnlijk vanwege historische of structurele machtsonevenwichten.

Bij LLM’s wordt bias veroorzaakt door gegevensselectie, creator-demografie en taal- of culturele scheefheid. Gegevensselectiebias treedt op wanneer de teksten die zijn geselecteerd voor LLM-training de volledige diversiteit van taalgebruik op het web niet vertegenwoordigen. LLM’s die zijn getraind op uitgebreide, maar beperkte, datasets kunnen de biases erven die al in deze teksten aanwezig zijn. Met creator-demografie worden bepaalde demografische groepen vaker benadrukt dan anderen, wat de noodzaak aantoont van meer diversiteit en inclusiviteit in contentcreatie om bias te verminderen. Zo toont Wikipedia, een veelvoorkomende bron van trainingsgegevens, een opvallende demografische onevenwichtigheid onder zijn editors met een mannelijke meerderheid (84%). Dit is vergelijkbaar met de scheefheid die wordt aangetroffen voor taal en cultuur. Veel bronnen waarop LLM’s worden getraind, zijn scheef, met een Engels-centrische inslag, die slechts soms nauwkeurig vertaalt naar andere talen en culturen.

Het is essentieel dat LLM’s worden getraind op gefilterde gegevens en dat er veiligheidsmaatregelen zijn om onderwerpen te onderdrukken die geen consistente weergave zijn van de gegevens. Een manier om dit te doen is door middel van technieken op basis van gegevensverrijking. U kunt voorbeelden van ondervertegenwoordigde groepen toevoegen aan de trainingsgegevens, waardoor de diversiteit van de dataset wordt verbreed. Een andere mitigatiestrategie is gegevensfiltering en herweging, die zich voornamelijk richt op het nauwkeurig targeten van specifieke, ondervertegenwoordigde voorbeelden binnen een bestaande dataset.

Hallucinaties

Binnen de context van LLM’s zijn hallucinaties een fenomeen dat wordt gekenmerkt door de productie van een tekst die, hoewel grammaticaal correct en ogenschijnlijk coherent, afwijkt van feitelijke nauwkeurigheid of de bedoeling van de bronmateriaal. In feite hebben recente rapporten ontdekt dat een rechtszaak over een Minnesota-wet rechtstreeks wordt beïnvloed door LLM-hallucinaties. Een affidavit dat is ingediend ter ondersteuning van de wet, is gevonden te hebben inclusief niet-bestaande bronnen die mogelijk zijn gehallucineerd door ChatGPT of een andere LLM. Deze hallucinaties kunnen gemakkelijk de betrouwbaarheid van een LLM verminderen.

Er zijn drie primaire vormen van hallucinaties:

  1. Input-Conflicting Hallucination: Dit gebeurt wanneer de output van een LLM afwijkt van de door de gebruiker verstrekte invoer, die typisch instructies voor taken en de daadwerkelijke inhoud bevat die moet worden verwerkt.
  2. Context-Conflicting Hallucination: LLM’s kunnen intern inconsistentie produceren in scenario’s met verlengde dialoog of meerdere uitwisselingen. Dit suggereert een potentieel tekort in de mogelijkheid van het model om context te volgen of coherentie te behouden over verschillende interacties.
  3. Fact-Conflicting Hallucination: Deze vorm van hallucinatie ontstaat wanneer een LLM inhoud produceert die in strijd is met gevestigde feitelijke kennis. De oorsprong van dergelijke fouten is divers en kan optreden op verschillende stadia in de levenscyclus van een LLM.

Veel factoren hebben bijgedragen aan dit fenomeen, zoals kennisgebreken, die uitleggen hoe LLM’s mogelijk de kennis of de mogelijkheid missen om informatie correct te assimileren tijdens pre-training. Bovendien kan bias in trainingsgegevens of een sequentiële generatiestrategie van LLM’s, genaamd “hallucinatie-sneeuwbaleffect”, hallucinaties creëren.

Er zijn manieren om hallucinaties te mitigeren, hoewel ze altijd een kenmerk van LLM’s zullen zijn. Hulpbronnen voor mitigatie van hallucinaties zijn mitigatie tijdens pre-training (handmatig verfijnen van gegevens met filtertechnieken) of fine-tuning (cureren van trainingsgegevens). Echter, mitigatie tijdens inferentie is de beste oplossing vanwege de kosteneffectiviteit en controle.

Privacy

Met de opkomst van het internet is de toegankelijkheid van persoonlijke informatie en andere privégegevens een breed erkende zorg geworden. Een studie vond dat 80% van de Amerikaanse consumenten bezorgd zijn dat hun gegevens worden gebruikt om AI-modellen te trainen. Aangezien de meest prominente LLM’s afkomstig zijn van websites, moeten we overwegen hoe dit privacyrisico’s met zich meebrengt en grotendeels een onopgelost probleem voor LLM’s blijft.

De meest rechtstreekse manier om te voorkomen dat LLM’s persoonlijke informatie verspreiden, is door deze te verwijderen uit de trainingsgegevens. Echter, gezien de enorme hoeveelheid gegevens die betrokken zijn bij LLM’s, is het bijna onmogelijk om te garanderen dat alle privé-informatie is uitgeroeid. Een andere veelvoorkomende alternatief voor organisaties die afhankelijk zijn van extern ontwikkelde modellen, is om te kiezen voor een open-source LLM in plaats van een dienst zoals ChatGPT.

Met deze benadering kan een kopie van het model intern worden geïmplementeerd. De prompts van gebruikers blijven veilig binnen het netwerk van de organisatie in plaats van blootgesteld te worden aan diensten van derden. Hoewel dit het risico van het lekken van gevoelige gegevens aanzienlijk vermindert, voegt het ook significante complexiteit toe. Gezien de moeilijkheden om de bescherming van privégegevens volledig te garanderen, is het nog steeds essentieel voor applicatie-ontwikkelaars om te overwegen hoe deze modellen hun gebruikers in gevaar kunnen brengen.

De volgende frontier voor LLM’s

Naarmate we doorgaan met het groeien en vormgeven van opeenvolgende evoluties van LLM’s door het mitigeren van huidige risico’s, kunnen we de doorbraak van LLM-agents verwachten, die we al zien bij bedrijven zoals H met Runner H, die hun eerste product beginnen te lanceren. De verschuiving van pure taalmodellen naar agente-architecturen vertegenwoordigt een verandering in AI-systeemontwerp; de industrie zal voorbij de inherente beperkingen van chat-interfaces en eenvoudige retrieval-versterkte generatie gaan. Deze nieuwe agent-kaders zullen geavanceerde planningsmodules hebben die complexe doelen decomponeren in atomaire subtaken, episodische geheugen voor contextuele redenering onderhouden en gespecialiseerde tools via goed gedefinieerde API’s benutten. Dit creëert een robuustere benadering van taakautomatisering. De architecturale vooruitgang helpt om de veelvoorkomende uitdagingen rond taken en redenering, tool-integratie en uitvoeringsbewaking binnen traditionele LLM-implementaties te mitigeren.

Naast LLM’s zal er meer focus zijn op het trainen van kleinere taalmodellen vanwege hun kosteneffectiviteit, toegankelijkheid en gemak van implementatie. Zo zijn domeinspecifieke taalmodellen gespecialiseerd in bepaalde branches of gebieden. Deze modellen zijn fijn afgestemd met domeinspecifieke gegevens en terminologie, waardoor ze ideaal zijn voor complexe en gereguleerde omgevingen, zoals de medische of juridische sector, waar precisie essentieel is. Deze gerichte aanpak vermindert de kans op fouten en hallucinaties die algemene modellen kunnen produceren wanneer ze worden geconfronteerd met gespecialiseerde inhoud.

Naarmate we doorgaan met het verkennen van nieuwe frontiers in LLM’s, is het essentieel om de grenzen van innovatie te verleggen en potentiële risico’s te adresseren en te mitigeren die zijn geassocieerd met hun ontwikkeling en implementatie. Alleen door eerst de uitdagingen gerelateerd aan bias, hallucinaties en privacy te identificeren en proactief aan te pakken, kunnen we een robuustere basis creëren voor LLM’s om te floreren in diverse branches.

Uday Kamath is de Chief Analytics Officer bij Smarsh, de wereldleider in communicatiegegevens en -inlichtingen. Zijn rol omvat het leiden van datawetenschap en onderzoek in conversational AI. Met meer dan 25 jaar ervaring in analytische ontwikkeling en een PhD in schaalbare machine learning, omvatten Kamath's significante bijdragen talloze tijdschriften, conferenties, boeken en octrooien. Hij is ook een actief lid van de adviesraad voor entiteiten, waaronder commerciële bedrijven zoals Falkonry en academische instellingen zoals het Center for Human-Machine Partnership at GMU.