Stummel Facebook erstellt einen natürlich klingenden Open-Domain-Chatbot, der auf 1.5 Milliarden Reddit-Beiträgen trainiert wird – Unite.AI
Vernetzen Sie sich mit uns

Künstliche Intelligenz

Facebook erstellt einen natürlich klingenden Open-Domain-Chatbot, der auf 1.5 Milliarden Reddit-Beiträgen trainiert wird

mm
Aktualisiert on

Facebook hat kürzlich eine gestartet Open-Domain-Chatbot mit dem Spitznamen „Blender“. Wie die BBC berichtete, Facebooks Blender ist der größte Open-Domain-Chatbot aller Zeiten und nach Angaben des Unternehmens ist er in der Lage, Empathie, Persönlichkeit und Wissen zu zeigen, übertrifft andere Chatbots und fühlt sich menschlicher an. Mixer ist zur Verfügung in drei verschiedenen Varianten, jeweils mit unterschiedlichem Komplexitätsgrad und Modellverfeinerungsgrad. Es gibt ein neuronales Modell mit 90 Millionen Parametern, ein Modell mit 2.7 Milliarden Parametern und ein Modell mit 9.4 Milliarden Parametern. Das 9.4-Milliarden-Parameter-Modell ist etwa 3.6-mal größer als der größte derzeit existierende Chatbot.

Facebook behauptet, Blender sei der erste allgemein verfügbare Chatbot, der komplexe, vielfältige Konversationsfähigkeiten wie Wissen und Empathie vereint. Der Blender-Chatbot ist in der Lage, eine Vielzahl von Themen zu diskutieren und ein Gespräch zu führen, das bis zu 14 Gesprächsrunden verfolgt. Berichten zufolge interagierten etwa 49 % der Menschen, die mit dem Chatbot interagierten, lieber mit dem Bot als mit einem anderen Menschen.

Blender wurde anhand von Daten aus öffentlich zugänglichen Gesprächen trainiert, die auf Social-Media-Seiten wie Reddit gesammelt wurden. Der Datensatz, der zum Trainieren von Blender verwendet wurde, umfasste etwa 1.5 Milliarden Beispielgespräche. Während die Trainingsdaten und die Ausgereiftheit des Modells es dem Chatbot ermöglichten, komplexe Diskussionen zu führen und ein natürlicheres, menschlicheres Gefühl zu vermitteln, traten aufgrund dieser Trainingstechnik einige Probleme auf. Laut den Forschern reagierte Blender manchmal aggressiv oder mit beleidigender Sprache auf Gesprächsaufforderungen. Darüber hinaus antwortete der Chatbot gelegentlich mit Unwahrheiten und erfundenen Fakten. Das Forschungsteam ist optimistisch, dass Überarbeitungen des Modells diese Probleme beheben werden, wollte die Modelle aber trotzdem veröffentlichen.

Laut einem Facebook-Sprecher wie von der BBC zitiert„Die Veröffentlichung von Modellen ist unerlässlich, um vollständige und zuverlässige Einblicke in ihre Fähigkeiten zu ermöglichen.“

Laut Dave Choplin, dem Geschäftsführer des Beratungsunternehmens für künstliche Intelligenz The Envisioners, müssen die Facebook-Forscher noch zwei große Herausforderungen meistern, um erfolgreich zu sein. Wie von der BBC zitiert, glaubt Choplin, dass die Forscher vor großen Herausforderungen stehen werden, wenn es darum geht, die vielen Nuancen von Gesprächen nachzubilden, die Menschen oft als selbstverständlich ansehen, und dass die Daten, die zum Trainieren des Modells verwendet werden, dies auf eine Weise behindern könnten, die für die Facebook-Forscher möglicherweise nur schwer zu überwinden ist .

„So großartig eine Plattform Reddit auch ist, das Training von Algorithmen, die auf den Gesprächen basieren, die man dort findet, wird einem viel Spreu unter den Weizen bringen.“ sagte Choplin.

Facebook hat Vergleiche zwischen seinem eigenen Blender-Chatbot und Googles zeitgenössischem Chatbot namens Meena angestellt. Facebooks Blog-Post zeigte Vergleiche zwischen Meena und Blender, und laut Facebook-Daten gaben etwa 75 % der Befragten, die ein Gespräch mit Blender geführt hatten, an, dass sie lieber eine längere Diskussion mit Blender als mit Meena führen würden. Darüber hinaus gaben etwa 67 % der Befragten an, dass Blender bei langen Gesprächen natürlicher und menschlicher sei als Meena.

In Zukunft möchte das Facebook-Forschungsteam die Konversationsfähigkeit der Modelle verbessern und Modelle entwerfen, die mithilfe neuer Verlustfunktionen und Architekturen noch längere Konversationen unterstützen können. Darüber hinaus wollen die Forscher geschlechtsspezifischen Vorurteilen und potenziell schädlicher Sprache entgegenwirken, indem sie bessere Klassifikatoren und repräsentativere Trainingsdaten entwickeln.