Connect with us

Prof. Saeema Ahmed-Kristensen, Direktorin des DIGIT Lab – Interview-Reihe

Interviews

Prof. Saeema Ahmed-Kristensen, Direktorin des DIGIT Lab – Interview-Reihe

mm

Professor Saeema Ahmed-Kristensen ist eine führende Design-Engineering-Gelehrte und Associate Pro-Vice-Chancellor (Research & Impact) an der University of Exeter, wo sie auch als Direktorin des DIGIT Lab tätig ist, einer großen interdisziplinären Forschungsinitiative, die sich auf digitale Innovation und Transformation konzentriert. Ihre Forschung umfasst Design-Kreativität und Kognition, datengetriebenes und digitales Design sowie die Integration von fortschrittlichen Technologien in komplexe Ingenieur- und Produktentwicklung, mit einem starken Fokus auf die Übersetzung akademischer Erkenntnisse in realen Einfluss durch Industriekooperation, Politikeinbindung und groß angelegte Forschungsprogramme.

Ihre Karriere hat Cambridge, DTU, Imperial College London, die Royal College of Art und jetzt die University of Exeter umfasst. Wenn Sie zurückblicken, welche Erfahrungen oder Wendepunkte haben Ihr Denken über Design, Kreativität und die Rolle digitaler Technologien am meisten geprägt?

Meine Arbeit im Design hat sich über viele verschiedene Kulturen und Disziplinen erstreckt. Ich begann an der Brunel mit einem der wenigen Kurse, die zu dieser Zeit Technologie, menschzentriertes Design und ein Verständnis von Form kombinierten. Es lehrte mich früh, dass Kreativität und Innovation eng miteinander verbunden sind.

Das Studium in Cambridge erweiterte mein Denken weiter. Die College-Umgebung stellte mich vielen Disziplinen vor und zeigte mir, wie Innovation von der Zusammenführung von Wissen aus verschiedenen Bereichen abhängt. Meine Promotion konzentrierte sich auf den Luft- und Raumfahrtsektor und untersuchte, wie Ingenieur-Designer Informationen finden und nutzen. Ich untersuchte, wie Menschen auf Wissen zugreifen, wie Expertenwissen unterstützt oder repliziert werden kann und die Schnittstelle zwischen Kognition, Informatik und Ingenieur-Design. Diese menschzentrierte Perspektive ist bei mir geblieben.

Da digitale Technologien gewachsen sind, sind auch die Fragen in meiner Arbeit gewachsen. Der Aufstieg von IoT-Daten, künstlicher Intelligenz und fortgeschrittener Rechenleistung hat das Design von einem menschzentrierten Ansatz zu einem gesellschaftszentrierten Ansatz verschoben. Dies prägt weiterhin meine Arbeit an der University of Exeter, wo ich das DIGIT Lab leite und mich auf die Rolle von LLMs im kreativen Prozess, die Barrieren, die Branchen bei der Einführung dieser Technologien überwinden müssen, und wie Daten Innovation vorantreiben können, konzentriere.

Meine Zeit am Imperial College und der Royal College of Art hat mich gelehrt, dass Design weit mehr ist als die Gestaltung von Produkten oder Dienstleistungen. Mit den richtigen Menschen, Prozessen und Kultur kann Design zu einem Treiber neuer und skalierbarer Technologien, Materialien und Ideen werden, die heute und morgen globale Herausforderungen angehen können.

DIGIT Lab konzentriert sich stark auf digitale Transformation in großen etablierten Organisationen. Aus Ihrer Perspektive heraus, was verstehen Führungskräfte am meisten falsch über die Art und Weise, wie künstliche Intelligenz Design, Innovation und Entscheidungsfindung verändern wird?

Seit Jahrzehnten hat künstliche Intelligenz in der Forschung Fortschritte gemacht und in bestimmten Branchen Anwendung gefunden, aber der Fortschritt wurde oft durch Fähigkeitslücken, das Verständnis der Führungskräfte und die Klarheit über den Wert und die erforderliche Infrastruktur eingeschränkt. Mit dem Aufstieg von LLMs und generativen Tools wie DALL·E ist künstliche Intelligenz jetzt zugänglicher und benötigt weniger spezialisierte Expertise oder Einrichtungen. Aber dies wirft auch neue Fragen über Datenschutz, Datensicherheit und wie gut allgemeine Modelle auf spezifische Bereiche anwendbar sind, auf.

In Design und Innovation sind diese Probleme besonders deutlich. Unsere Forschung, die über 12.000 Ideen untersuchte, die von Menschen und künstlicher Intelligenz generiert wurden, zeigte, dass künstliche Intelligenz-Ideen tendenziell um ähnliche Konzepte clusteren. Dies unterstreicht die Notwendigkeit, menschliche Expertise in generische Tools einzubauen, künstliche Intelligenz für den Bereich anzupassen oder zu verstehen, wann und wie künstliche Intelligenz neben menschlicher Kreativität und Entscheidungsfindung eingesetzt werden kann.

Ein großer Teil Ihrer Forschung erforscht Kreativität und Kognition im Design. Da generative künstliche Intelligenz jetzt in der Lage ist, Ideen, Konzepte und Iterationen im großen Maßstab zu produzieren, welche Aspekte der Kreativität sehen Sie als einzigartig menschlich an – und welche Teile können verantwortungsvoll in AI-getriebene Prozesse verlagert werden?

Kreativität war für mich immer mehr als die Generierung von Alternativen. Es geht um Intention, kulturelle Bedeutung und die emotionale Verbindung, die ein Design herstellt. Unsere jüngste DIGIT-Lab-Umfrage brachte dies in scharfes Licht: 82 % der Menschen sagten uns, dass menschlich geführte oder hybride Arbeit bedeutungsvoller sei, und 71 % sagten, sie fühlten sich weniger emotional mit AI-nur-Design verbunden. Viele beschrieben AI-generierte Arbeit als “emotionslos” (48 %) oder “zu perfekt” (40 %), und 36 % fühlten, dass ihre Wirkung schnell verblasste. Diese Antworten bestätigten etwas, das ich schon lange glaube. Emotionale Bindung ist kein Nice-to-Have; sie ist entscheidend für die Art und Weise, wie Menschen kreative Arbeit erleben und schätzen.

Unsere Forschung, die menschliche und künstliche Intelligenz-Ideen vergleicht, zeigt auch, dass menschliche Designer besser darin sind, diverse, neue Ideen zu generieren und sicherzustellen, dass das kreative Output, ob Kunst, Produktdesign oder Dienstleistungen, Tiefe und Bedeutung hat. Kreative Experten verfügen über ein Fähigkeitsspektrum, das derzeit nicht repliziert werden kann. Designer müssen das Problem verstehen, bevor sie Ideen generieren, und LLMs sind sehr nützlich bei der Informationsbeschaffung, um Designer von einem Problem zu einem anderen zu verschieben. Wenn wir Modelle menschlicher Expertise in AI-Tools einbauen können, können sie auch die Bewertung von Ideen unterstützen und es AI ermöglichen, menschliche kreative Fähigkeiten besser zu nutzen.

Der Chain-of-Thought-Ansatz, den wir experimentieren, unterstützt LLMs, um Experten-Argumentationen zu verfolgen, nicht nur Bewertungen abzugeben. In allen Fällen ist menschliche Aufsicht erforderlich, um Ergebnisse zu interpretieren und sicherzustellen, dass Designentscheidungen mit den Erfahrungen der Nutzer übereinstimmen.

Es ist klar, dass wir entweder Modelle entwickeln müssen, die erfassen, wie Menschen Produkte, Dienstleistungen und Interaktionen erleben, oder dicke Daten (reiche qualitative Erkenntnisse, die Kontext liefern) mit den dünnen oder großen Sensordaten, die wir sammeln, integrieren. Die Entwicklung dieser Modelle ist nicht einfach, und hier bleibt menschliche Beteiligung unerlässlich.

Für mich lautet die Quintessenz nicht, dass künstliche Intelligenz in der Kreativität keine Rolle spielt. Weit gefehlt. Es geht darum, dass künstliche Intelligenz und Menschen unterschiedliche Stärken beitragen. Die Tatsache, dass Menschen konsistent positiver auf menschliche oder hybride Arbeit reagieren, sagt uns einfach, wo der Schwerpunkt liegt. Künstliche Intelligenz kann helfen, den Designraum zu erkunden, Muster zu analysieren und strukturierte Kritik zu bieten, aber diese Wahrnehmungen von Flachheit, algorithmischer Perfektion und emotionaler Distanz zeigen, wo künstliche Intelligenz noch menschliche Urteilsfähigkeit benötigt, um Möglichkeiten in etwas zu verwandeln, das Resonanz erzeugt.

Das ist, warum ich die Zukunft der Kreativität als grundlegend kooperativ sehe. Künstliche Intelligenz kann den Möglichkeitsraum erweitern. Designer bringen die Empathie, das kulturelle Verständnis und das Verständnis für die Intention, die diesen Möglichkeiten Bedeutung verleihen. Wenn beide zusammenarbeiten, mit menschlicher Urteilsfähigkeit, die die Richtung vorgibt, und künstlicher Intelligenz, die die Erforschung bereichert, ist das Ergebnis ein kreativer Prozess, der rigoroser, imaginärer und letztendlich menschlicher in seinen Ergebnissen ist.

Sie haben Ansätze zur Quantifizierung von Benutzererfahrungen und zur Strukturierung von Designwissen entwickelt. Wie stellen wir sicher, dass menschliche Erfahrungen, Emotionen und kulturelle Signale im Designprozess zentral bleiben, wenn künstliche Intelligenz-Systeme für die Generierung von Produkten und Dienstleistungen verantwortlich werden?

Um menschliche Erfahrungen in den Mittelpunkt zu stellen, müssen wir Wissen über Wahrnehmung und Emotionen in unsere Methoden einbetten.

Es gibt zwei Hauptansätze. Der erste erkennt die Notwendigkeit qualitativer Daten an, die ein tiefes Verständnis menschlicher Erfahrungen, Wahrnehmungen und Emotionen ermöglichen und eine effektive menschliche-künstliche Intelligenz-Zusammenarbeit ermöglichen. Der zweite – auf den mein Werk fokussiert ist – zielt darauf ab, dieses Wissen in Modelle zu übersetzen, die künstliche Intelligenz-Systeme verstehen und nutzen können.

Diese Modelle sind komplex zu entwickeln, da sie Benutzererfahrung, menschliche Wahrnehmung und die Merkmale der Produkte oder Systeme, die entworfen werden, integrieren müssen, um menschliche Reaktionen und die Gesamterfahrung vorherzusagen.

Sie arbeiten umfassend mit komplexen Branchen – Luft- und Raumfahrt, Medizin, Fertigung und Konsumgüter. In diesen hochriskanten Umgebungen, wie balancieren Sie das Potenzial von AI-unterstütztem Design mit der Notwendigkeit von Sicherheit, Nachvollziehbarkeit und Vertrauen?

In hochrisiken Branchen wie Gesundheitswesen, Luft- und Raumfahrt und Fertigung ist die Frage nicht, ob künstliche Intelligenz eingesetzt werden kann, sondern wie sie reguliert wird. Vertrauen in diesen Umgebungen hängt von klarer Rechenschaftspflicht, Nachvollziehbarkeit und Erklärbarkeit in jedem Stadium des Design- und Entscheidungsprozesses ab. Künstliche Intelligenz kann eine leistungsstarke unterstützende Rolle in Simulation, Optimierung und früher Explorationsphase spielen, aber sie kann nicht die endgültige Autorität werden.

Viele dieser Bereiche sind streng reguliert und unterliegen strengen Sicherheitsanforderungen, die ein sicheres Handling aller Daten, persönlicher oder kommerziell sensibler Daten, erfordern. In diesen Kontexten müssen oft Anfragen oder Abfragen mithilfe lokaler Daten entwickelt werden, um Spezifität und Relevanz sicherzustellen, und es ist üblich, dass Organisationen in diesen Sektoren ihre eigenen künstlichen Intelligenz-Tools aufbauen und warten.

Was unsere umfassendere Forschung konsistent zeigt, ist, dass hybride Systeme unerlässlich sind: Künstliche Intelligenz sollte Expertenurteile ergänzen, nicht ersetzen. Menschliche Aufsicht muss in jeden kritischen Entscheidungspunkt eingebaut werden, insbesondere wenn es um Sicherheit, Risiko und Haftung geht. Damit Regulierungsbehörden und Endnutzer AI-gestützte Systeme vertrauen, benötigen Organisationen auch transparente Dokumentation darüber, wie Modelle trainiert werden, welche Daten sie nutzen und wie Ausgaben generiert werden. Ohne diese Transparenz kann Vertrauen nicht skaliert werden, unabhängig von der Fortgeschrittenheit der Technologie.

Viele Organisationen kämpfen mit der Lücke zwischen “Experimentieren mit künstlicher Intelligenz” und der sinnvollen Integration in die Produktentwicklung. Welche praktischen Schritte würden Sie Teams empfehlen, die von der Experimentierung zur strategischen Implementierung übergehen möchten?

Viele Organisationen verharren im Experimentierstadium, weil sie künstliche Intelligenz ohne klaren strategischen Zweck einsetzen. Der erste praktische Schritt ist, explizit zu machen, welche Rolle künstliche Intelligenz im Entwicklungsprozess spielen soll, ob dies die Unterstützung von Ideen, die Beschleunigung von Tests, die Verbesserung von Bewertungen oder die Verbesserung von Entscheidungsfindung ist. Ohne diese Klarheit bleiben Pilotprojekte von realen Geschäfts- und Designergebnissen getrennt.

Teams benötigen auch die richtigen Grundlagen. Dazu gehört die Investition in hochwertige, gut regulierte Daten, insbesondere Daten, die reale Benutzererfahrungen widerspiegeln, und nicht nur technische Leistung. Es bedeutet auch, realistisch über die aktuellen Grenzen von künstlicher Intelligenz zu sein, insbesondere in kreativer und menschzentrierter Beurteilung, wo Expertenaufsicht unerlässlich bleibt.

Viele Branchen entwickeln künstliche Intelligenz-Richtlinien, die Teams durch den Prozess des Experimentierens mit künstlicher Intelligenz von der Erstellung von Geschäftsmodellen und der Durchführung von Pilotprojekten bis hin zu einer umfassenderen Einführung führen. Diese Richtlinien helfen Organisationen, zu identifizieren, wo künstliche Intelligenz wirklich Mehrwert bieten kann, während sie auch sicherstellen, dass Menschen bleiben, wo notwendig.

Schließlich sollten Organisationen durch strukturierte, niedrigrisikige Pilotprojekte gehen, die in realen Workflows eingebettet sind, nicht isoliert laufen. Diese Pilotprojekte sollten interdisziplinär sein, Designer, Ingenieure, Datenwissenschaftler und Fachexperten zusammenbringen, damit Lernen geteilt und übertragbar wird. Künstliche Intelligenz liefert Wert, wenn sie in den täglichen Betrieb integriert wird, nicht als separates Experimentierschicht behandelt wird.

Sie haben eine lange Erfolgsgeschichte bei der Entwicklung von Methoden zur Strukturierung und Automatisierung von Wissen. Wie nahe sind wir an künstlichen Intelligenz-Systemen, die über Design-Intent, Benutzerbedürfnisse und Kontext in einer Weise nachdenken können, die wirklich Mehrwert bietet, anstatt nur Inhalte zu generieren?

In einigen Bereichen ist die Vorhersage von Benutzerpräferenzen relativ einfach, da Daten wie Browserverlauf oder Aufzeichnungen darüber, welche Filme oder Fernsehsendungen angesehen wurden, verwendet werden können, um Empfehlungen zu geben. Diese Bereiche profitieren von leicht verfügbaren Daten.

Im Gegensatz dazu ist ein wichtiger Herausforderung bei der Gestaltung von Produkten und Dienstleistungen, dass Daten über Menschenwahl, Bedürfnisse und Erfahrungen oft nicht leicht verfügbar sind.

Meine jüngste Forschung mit dem DIGIT Lab untersuchte die Fähigkeit eines LLM, wenn ihm ein Modell gegeben wird, wie Menschen Designmerkmale wahrnehmen und darauf reagieren. Allerdings können aktuelle Modelle Muster in Daten nicht kontextualisieren. Frühere Studien, die Form und Wahrnehmung verbinden, zeigen, dass sogar kleine Änderungen in der Form emotionale Reaktionen verschieben können, und solche Feinheiten sind für künstliche Intelligenz ohne menschliche Anleitung oder sophisticatede Modelle schwer vorherzusagen. Daher verbessert sich die Argumentationsfähigkeit von künstlicher Intelligenz, bleibt aber ein Komplement zu menschlicher Expertise.

Da künstliche Intelligenz Designzyklen von Ideenfindung bis Prototyping beschleunigt – welche neuen Fähigkeiten benötigen Designer? Wie sollten Universitäten und Organisationen die Ausbildung der nächsten Generation von kreativem Talent umdenken?

Designer werden fließend in menschlicher Wahrnehmung und künstlicher Intelligenz-Tools sein müssen. Das Verständnis, wie Form, Material und Proportion emotionale Reaktionen beeinflussen, wird fundamental für gutes Design bleiben. Gleichzeitig müssen Designer in der Lage sein, mit künstlicher Intelligenz-Systemen zu arbeiten, die Ideengenerierung und Bewertung unterstützen. Das bedeutet nicht nur die Verwendung dieser Tools, sondern auch das Verständnis, wofür sie optimiert sind und wo ihre Grenzen liegen. Da künstliche Intelligenz immer mehr in Design-Workflows integriert wird, wird die Fähigkeit, ihre Ausgaben kritisch zu interpretieren und mit menschlicher Urteilsfähigkeit zu kombinieren, zu einer der wertvollsten kreativen Fähigkeiten werden.

Da künstliche Intelligenz Designzyklen von Ideenfindung bis Prototyping beschleunigt, benötigen Designer ein neues Spektrum an Fähigkeiten und Denkweisen, die über traditionelle Handwerksfähigkeiten hinausgehen. Sie müssen verstehen, wie digitale Technologien funktionieren, was verschiedene Arten von Daten können (und nicht können) enthüllen und wie man Design-Expertise mit künstlicher Intelligenz-Verständnis kombiniert. Dazu gehört auch, zu wissen, wie man mit hochwertigen, gut regierten Daten arbeitet, die reale Benutzererfahrungen widerspiegeln, anstatt sich nur auf technische Leistungsmerkmale zu verlassen. Nebenbei benötigen Designer auch die Urteilsfähigkeit, zu erkennen, wo künstliche Intelligenz hilfreich ist und wo menschliche Kreativität und kritische Denkfähigkeit zentral bleiben müssen.

Um diese Bedürfnisse zu erfüllen, müssen Universitäten und Organisationen, wie sie die nächste Generation von kreativem Talent ausbilden, neu denken. Einige Universitäten integrieren bereits Data Science in Design-Programme, ein wichtiger Schritt, aber nicht genug. Was noch fehlt, sind Design-Denkmethode, die auf die Realitäten des digitalen Zeitalters vorbereitet sind: Methoden, die Designer befähigen, mit künstlicher Intelligenz zusammenzuarbeiten, über Disziplinen hinweg zu arbeiten und schnelle Experimente durchzuführen, während sie ethische und menschzentrierte Aufsicht wahren.

Die Behandlung dieser Lücke ist unerlässlich. Deshalb schreibe ich mit meinem Kollegen Dr. Ji Han ein Buch mit Cambridge University Press über Design Thinking in der digitalen Ära, das die Rahmenbedingungen, Fähigkeiten und Denkweisen zusammenbringt, die erforderlich sind, um effektiv neben künstlicher Intelligenz zu entwerfen.

DIGIT Lab betont verantwortungsvolle Transformation. Aus Ihrer Sicht, welche ethischen oder gesellschaftlichen Risiken benötigen mehr Aufmerksamkeit, wenn künstliche Intelligenz in Design-Workflows über Branchen hinweg integriert wird?

Ein Beispiel ist die Sicherstellung der ethischen Verwendung von Daten, einschließlich der Einholung informierter Zustimmung und der Wahrung von Transparenz über die Datensätze, die zur Entwicklung von künstlicher Intelligenz-Produkten verwendet werden, sowie über mögliche Vorurteile, die sie enthalten. Beispielsweise müssen Datensätze, die in Gesundheitssystemen eingebettet sind, sorgfältig untersucht werden, um sicherzustellen, dass sie die gesamte Bevölkerung angemessen repräsentieren, identifizieren, welche Gruppen möglicherweise unterrepräsentiert sind, und bestätigen, dass das künstliche Intelligenz-System zweckmäßig und inklusiv ist. Aus gesellschaftlicher Sicht gibt es oft Bedenken, dass künstliche Intelligenz Jobs ersetzen wird; jedoch ist es wichtig zu verstehen, wo menschliche Expertise unerlässlich bleibt und wie künstliche Intelligenz eingesetzt werden kann, um menschliche Fähigkeiten zu ergänzen, anstatt sie zu ersetzen.

Es gibt jedoch auch tiefere ethische Fragen. Wenn Designer auf menschliche Daten angewiesen sind, müssen sie Privatsphäre, Vorurteile und Transparenz verantwortungsvoll handhaben. Ein DIGIT-Lab-Workshop identifizierte die Herstellungsbranche “Daten”, “menschlich” und “Regierung” als die Haupt-Herausforderungskategorien, unterstreicht die Notwendigkeit besserer Datenbeschaffung, menschlicher Aufsicht und klarer Richtlinien für Sicherheit, Vertrauen, geistiges Eigentum und Regulierung. Die Behandlung dieser Risiken bedeutet, dass künstliche Intelligenz-Systeme auf vielfältigen Daten aufbauen, menschliche Urteilsfähigkeit an kritischen Punkten einbauen und inklusive Design-Standards entwickeln, die Privatsphäre, Zustimmung und kulturellen Kontext respektieren.

Sie haben erforscht, wie Daten und künstliche Intelligenz Produkte um Benutzererfahrungen herum anpassen können. Sehen Sie eine Zukunft, in der Produkte dynamisch auf Echtzeit-Daten nach ihrem Verlassen der Fabrik evolvieren? Wenn ja, wie sollten Designer für diese Welt vorbereitet werden?

Datengetriebenes Design kann für Produkte personalisiert, angepasst oder an individuelles Verhalten adaptiert werden. Sie werden dann zu “intelligenten” Systemen, die Daten über ihre Nutzung sammeln und über eingebettete Sensoren und IoT-Konnektivität kommunizieren. In unserem Rahmen umfassen Anpassungsaktivitäten die Verwendung dieser Daten, um Produkte nach ihrem Verlassen der Fabrik zu aktualisieren und anzupassen. Beispiele umfassen die Verbindung von Gesten-Erkennungsmodellen mit einem digitalen Zwilling für menschliche Roboter-Kollaboration und die Verwendung von maschinellen Lernalgorithmen-gestützter Scannung, um angepasste Komponenten zu erstellen.

Dieser Wandel schafft neue Verantwortungen. Designer müssen entscheiden, welche menschliche Daten, Verhaltens-, physiologische, Feedback- oder emotionale Daten relevant sind. Sie müssen auch sicherstellen, dass Updates die beabsichtigten ästhetischen und emotionalen Qualitäten bewahren, die wir mit Form und Wahrnehmung verbinden. Schließlich ist Regierungsführung wichtig: Unser Branchen-Workshop unterstrich, dass Fragen zu Daten, Vertrauen und Privatsphäre klare Richtlinien und menschliche Aufsicht erfordern. Wenn Produkte gut entwickelt werden, können sie dauerhaften Wert und Reaktionsfähigkeit bieten, ohne Bedeutung oder Ethik zu opfern.

Blicken Sie voraus, welche großen Forschungsfragen motivieren Sie derzeit? Und welche Durchbrüche glauben Sie, dass das Feld in den nächsten Jahren an der Schnittstelle von künstlicher Intelligenz, Kreativität und Design-Engineering sehen wird?

Viele der oben beschriebenen Herausforderungen bleiben ungelöst – mehrere davon bearbeite ich derzeit, einschließlich der Arbeit, um sicherzustellen, dass allgemeine künstliche Intelligenz-Tools effektiv auf die spezifischen Branchen zugeschnitten werden können, die sie einführen möchten.

Auf Branchenebene kann dies ganz unterschiedlich aussehen: In der Fertigung kann es die Verwendung lokalisierter Modelle umfassen, die auf domänen-spezifischem Wissen trainiert werden, zusammen mit starken Datenschutz- und Sicherheitsmaßnahmen; in den kreativen Branchen kann der Fokus auf der Diversifizierung von Ausgaben und der Ermöglichung einer bedeutungsvolleren Zusammenarbeit zwischen Menschen und künstlicher Intelligenz liegen.

Auf technischer Ebene experimentieren wir mit großen Sprachmodellen, um Bewertungsaufgaben zu unterstützen. Eine Studie zeigt, dass LLMs Neuheit und Nützlichkeit bewerten und mit gut gestalteten Anfragen mehr mit menschlichen Experten übereinstimmen können. Ein verwandter Artikel verwendet Chain-of-Thought-Anfragen und Multi-Modell-Aggregation, um künstliche Intelligenz-Bewertung zuverlässiger zu machen. Wir erforschen auch konversationsbasierte Agenten, um die Anforderungen an digitale Transformation von Organisationen zu erfassen, und zeigen, dass Chatbots strukturierte Interviews effektiv durchführen können. Kombiniert mit der Arbeit zur Verwendung menschlicher Daten im Design weisen diese Initiativen auf eine Zukunft hin, in der künstliche Intelligenz hilft, Expertenwissen zu bewahren, bessere Entscheidungen zu treffen und Benutzer ethisch zu involvieren.

Vielen Dank für das durchdachte und aufschlussreiche Interview; Leser, die mehr über die Arbeit von Professor Ahmed-Kristensen zu AI-getriebenem Design, Kreativität und verantwortungsvoller digitaler Transformation erfahren möchten, können laufende Forschung und Initiativen im DIGIT Lab erkunden.

Antoine ist ein visionärer Führer und Gründungspartner von Unite.AI, getrieben von einer unerschütterlichen Leidenschaft für die Gestaltung und Förderung der Zukunft von KI und Robotik. Ein Serienunternehmer, glaubt er, dass KI so disruptiv für die Gesellschaft sein wird wie Elektrizität, und wird oft dabei ertappt, wie er über das Potenzial disruptiver Technologien und AGI schwärmt.

Als futurist ist er darauf fokussiert, zu erforschen, wie diese Innovationen unsere Welt formen werden. Zusätzlich ist er der Gründer von Securities.io, einer Plattform, die sich auf Investitionen in hochmoderne Technologien konzentriert, die die Zukunft neu definieren und ganze Branchen umgestalten.