Suivez nous sur

Perplexity AI « Uncensored » DeepSeek R1 : qui décide des limites de l'IA ?

Intelligence Artificielle

Perplexity AI « Uncensored » DeepSeek R1 : qui décide des limites de l'IA ?

mm

Dans un geste qui a retenu l’attention de beaucoup, IA perplexité a publié une nouvelle version d'un modèle de langage open source populaire qui élimine la censure chinoise intégrée. Ce modèle modifié, baptisé R1 1776 (un nom évoquant l'esprit d'indépendance), est basé sur le modèle développé par la Chine DeepSeek R1Le DeepSeek R1 original a fait sensation grâce à ses solides capacités de raisonnement – ​​rivalisant apparemment avec les modèles haut de gamme à une fraction du prix – mais il comportait une limitation importante : il refusait d’aborder certains sujets sensibles.

Pourquoi cette question?

Cela soulève des questions cruciales sur Surveillance par l'IA, biais, ouverture et rôle de la géopolitique dans les systèmes d'IA. Cet article explore ce qu'a fait exactement Perplexity, les implications de la décensure du modèle et la manière dont il s'inscrit dans le débat plus large sur la transparence et la censure de l'IA.

Ce qui s'est passé : DeepSeek R1 n'est plus censuré

DeepSeek R1 est un modèle de langage ouvert de grande taille originaire de Chine et a acquis une notoriété pour ses excellentes capacités de raisonnement – approchant même les performances des principaux modèles – tout en étant plus efficace en termes de calcul. Cependant, les utilisateurs ont rapidement remarqué une bizarrerie : chaque fois que les requêtes portaient sur des sujets sensibles en Chine (par exemple, des controverses politiques ou des événements historiques considérés comme tabous par les autorités), DeepSeek R1 ne répondait pas directement. Au lieu de cela, il répondait par des déclarations toutes faites, approuvées par l'État, ou par des refus catégoriques, reflétant les règles de censure du gouvernement chinois. Ce biais intégré limitait l'utilité du modèle pour ceux qui recherchaient des discussions franches ou nuancées sur ces sujets.

La solution de Perplexity AI a consistĂ© Ă  « dĂ©censurer » le modèle grâce Ă  un processus de post-formation approfondi. L’entreprise a rassemblĂ© un vaste ensemble de donnĂ©es de 40,000 1 questions multilingues couvrant des questions que DeepSeek R300 censurait auparavant ou auxquelles elle rĂ©pondait de manière Ă©vasive. Avec l’aide d’experts humains, ils ont identifiĂ© environ 1 sujets sensibles sur lesquels le modèle d’origine avait tendance Ă  suivre la ligne du parti. Pour chaque question de ce type, l’équipe a organisĂ© des rĂ©ponses factuelles et bien argumentĂ©es dans plusieurs langues. Ces efforts ont alimentĂ© un système de dĂ©tection et de correction de la censure multilingue, apprenant essentiellement au modèle Ă  reconnaĂ®tre quand il appliquait une censure politique et Ă  rĂ©pondre Ă  la place avec une rĂ©ponse informative. Après ce rĂ©glage spĂ©cial (que Perplexity a surnommĂ© « R1776 1 » pour mettre en Ă©vidence le thème de la libertĂ©), le modèle a Ă©tĂ© rendu accessible au public. Perplexity affirme avoir Ă©liminĂ© les filtres de censure et les biais chinois des rĂ©ponses de DeepSeek RXNUMX, sans pour autant modifier ses capacitĂ©s de base.

Le R1 1776 se comporte de manière très diffĂ©rente sur des questions autrefois taboues. Perplexity a donnĂ© un exemple impliquant une question sur l'indĂ©pendance de TaĂŻwan et son impact potentiel sur le cours de l'action NVIDIA - un sujet politiquement sensible qui touche aux relations entre la Chine et TaĂŻwan. Le R1 original de DeepSeek a Ă©vitĂ© la question, rĂ©pondant avec des platitudes alignĂ©es sur le PCC. En revanche, le R1 1776 fournit une Ă©valuation dĂ©taillĂ©e et franche : il discute des risques gĂ©opolitiques et Ă©conomiques concrets (perturbations de la chaĂ®ne d'approvisionnement, volatilitĂ© du marchĂ©, conflit Ă©ventuel, etc.) qui pourraient affecter l'action de NVIDIA. 

En rendant le code source de R1 1776 accessible à tous, Perplexity a également rendu les pondérations et les modifications du modèle transparentes pour la communauté. Les développeurs et les chercheurs peuvent téléchargez-le depuis Hugging Face et même l'intégrer via API, garantissant que la suppression de la censure peut être examinée et développée par d'autres.

(Source : Perplexity AI)

Conséquences de la suppression de la censure

La décision de Perplexity AI de supprimer la censure chinoise de DeepSeek R1 comporte plusieurs implications importantes pour la communauté de l'IA :

  • Ouverture et vĂ©racitĂ© renforcĂ©es : Les utilisateurs de R1 1776 peuvent dĂ©sormais recevoir des rĂ©ponses directes et non censurĂ©es sur des sujets auparavant inaccessibles, ce qui constitue une victoire pour la recherche ouverte. Cela pourrait en faire un assistant plus fiable pour les chercheurs, les Ă©tudiants ou toute personne curieuse de questions gĂ©opolitiques sensibles. C'est un exemple concret d'utilisation de l'IA open source pour contrer la suppression d'informations.
  • Performances maintenues : Certains craignaient que le fait de modifier le modèle pour supprimer la censure puisse dĂ©grader ses performances dans d'autres domaines. Cependant, Perplexity rapporte que les compĂ©tences de base de R1 1776, comme les mathĂ©matiques et le raisonnement logique, restent au mĂŞme niveau que le modèle d'origine. Lors de tests sur plus de 1,000 1 exemples couvrant un large Ă©ventail de requĂŞtes sensibles, le modèle s'est avĂ©rĂ© « totalement non censurĂ© » tout en conservant le mĂŞme niveau de prĂ©cision de raisonnement que DeepSeek RXNUMX. Cela suggère que suppression des biais (du moins dans ce cas) ne s'est pas fait au dĂ©triment de l'intelligence ou des capacitĂ©s globales, ce qui est un signe encourageant pour des efforts similaires Ă  l'avenir.
  • Accueil et collaboration positifs de la communautĂ© : En rendant le modèle dĂ©censurĂ© accessible au public, Perplexity invite la communautĂ© de l'IA Ă  inspecter et Ă  amĂ©liorer son travail. Elle dĂ©montre ainsi son engagement en faveur de la transparence – l'Ă©quivalent, pour l'IA, de la prĂ©sentation de son travail. Les passionnĂ©s et les dĂ©veloppeurs peuvent vĂ©rifier que les restrictions de censure ont bel et bien disparu et contribuer potentiellement Ă  de nouvelles amĂ©liorations. Cela favorise la confiance et l'innovation collaborative dans un secteur oĂą les modèles fermĂ©s et les règles de modĂ©ration cachĂ©es sont courants.
  • ConsidĂ©rations Ă©thiques et gĂ©opolitiques : D’un autre cĂ´tĂ©, la suppression totale de la censure soulève des questions Ă©thiques complexes. L’une des prĂ©occupations immĂ©diates est la manière dont ce modèle non censurĂ© pourrait ĂŞtre utilisĂ©. dans les contextes oĂą les sujets censurĂ©s sont illĂ©gaux ou dangereux. Par exemple, si quelqu'un en Chine continentale utilisait R1 1776, les rĂ©ponses non censurĂ©es du modèle sur la place Tiananmen ou Taiwan pourraient mettre l'utilisateur en danger. Il y a aussi le signal gĂ©opolitique plus large : une entreprise amĂ©ricaine qui modifie un modèle d'origine chinoise pour dĂ©fier la censure chinoise peut ĂŞtre considĂ©rĂ©e comme une position idĂ©ologique audacieuse. Le nom mĂŞme de « 1776 » souligne un thème de libĂ©ration, qui n'est pas passĂ© inaperçu. Certains critiques affirment que il est possible de remplacer un ensemble de biais par un autre – se demandant essentiellement si le modèle pourrait dĂ©sormais reflĂ©ter un point de vue occidental dans des domaines sensibles. Le dĂ©bat souligne que la censure par rapport Ă  l'ouverture dans l'IA n'est pas seulement une question technique, mais aussi politique et Ă©thique. LĂ  oĂą une personne voit modĂ©ration nĂ©cessaire, un autre voit la censure, et trouver le bon Ă©quilibre est dĂ©licat.

La suppression de la censure est largement saluée comme une étape vers des modèles d’IA plus transparents et utiles à l’échelle mondiale, mais elle sert également à rappeler que ce qu’est une IA devrait dire est une question sensible sans accord universel.

(Source : Perplexity AI)

Vue d'ensemble : censure de l'IA et transparence de l'open source

Le lancement de la version R1 1776 de Perplexity intervient à un moment où la communauté de l'IA se demande comment les modèles doivent gérer les contenus controversés. La censure dans les modèles d'IA peut provenir de nombreux endroits. En Chine, les entreprises technologiques sont obligées de mettre en place des filtres stricts et même des réponses codées en dur pour des sujets politiquement sensibles. DeepSeek R1 en est un parfait exemple : il s'agissait d'un modèle open source, mais il portait clairement l'empreinte des normes de censure chinoises dans sa formation et son réglage. En revanche, de nombreux modèles développés en Occident, comme GPT-4 d'OpenAI ou LLaMA de Meta, ne sont pas soumis aux directives du PCC, mais ils disposent toujours de couches de modération (pour des choses comme les discours de haine, la violence ou la désinformation) que certains utilisateurs appellent « censure ». modération raisonnable que le béton ey censure non désirée peut être flou et dépend souvent de la perspective culturelle ou politique.

Ce que Perplexity AI a fait avec DeepSeek R1 soulève l’idée que les modèles open source peuvent être adaptés à différents systèmes de valeurs ou environnements réglementaires. En théorie, on pourrait créer plusieurs versions d’un modèle : une version conforme à la réglementation chinoise (pour une utilisation en Chine) et une autre entièrement ouverte (pour une utilisation ailleurs). R1 ​​1776 est essentiellement le dernier cas – un fork non censuré destiné à un public mondial qui préfère des réponses non filtrées. Ce type de fork n’est possible que parce que les pondérations de DeepSeek R1 étaient disponibles en libre accès. Il met en évidence l’avantage de l’open source dans l’IA : transparence. N'importe qui peut prendre le modèle et le modifier, que ce soit pour ajouter des protections ou, comme dans ce cas, pour supprimer les restrictions imposées. Le fait que les données d'entraînement, le code ou les pondérations du modèle soient rendus open source signifie également que la communauté peut vérifier la manière dont le modèle a été modifié. (Perplexity n'a pas entièrement divulgué toutes les sources de données qu'elle a utilisées pour la décensure, mais en publiant le modèle lui-même, elle a permis à d'autres d'observer son comportement et même de le réentraîner si nécessaire.)

Cet événement fait également référence à la dynamique géopolitique plus large du développement de l'IA. Nous assistons à une forme de dialogue (ou de confrontation) entre différents modèles de gouvernance de l'IA. Un modèle développé par la Chine, avec certaines visions du monde intégrées, est repris par une équipe basée aux États-Unis et modifié pour refléter une éthique de l'information plus ouverte. C'est un témoignage de la façon dont mondial et sans frontières L’IA est une technologie qui permet aux chercheurs du monde entier de s’appuyer sur les travaux des autres, mais qui n’est pas obligée de conserver les contraintes initiales. Au fil du temps, nous pourrions voir davantage de cas de ce type, où les modèles sont « traduits » ou ajustés entre différents contextes culturels. Cela soulève la question de savoir si l’IA peut un jour être véritablement universelle, ou si nous finirons par avoir des versions spécifiques à chaque région qui adhèrent aux normes locales. La transparence et l’ouverture offrent une voie à suivre : si toutes les parties peuvent inspecter les modèles, au moins le débat sur les préjugés et la censure est ouvert au public plutôt que caché derrière le secret des entreprises ou du gouvernement.

Enfin, la démarche de Perplexity souligne un point clé du débat sur le contrôle de l’IA : Qui décide de ce qu'une IA peut ou ne peut pas dire ? Dans les projets open source, ce pouvoir devient décentralisé. La communauté – ou les développeurs individuels – peuvent décider d’appliquer des filtres plus stricts ou de les assouplir. Dans le cas de R1 1776, Perplexity a décidé que les avantages d’un modèle non censuré l’emportaient sur les risques, et ils avaient la liberté de prendre cette décision et de partager le résultat publiquement. C’est un exemple audacieux du type d’expérimentation que permet le développement d’une IA ouverte.

Alex McFarland est un journaliste et écrivain en IA qui explore les derniers développements en matière d'intelligence artificielle. Il a collaboré avec de nombreuses startups et publications d'IA dans le monde entier.