Meta, évangéliste inattendu de l’IA en « open source »
Publié le - par Le blob.fr, avec l'AFP
Mark Zuckerberg, fondateur et patron de Meta (Facebook, Instagram), est devenu une figure de proue inattendue du développement de l’intelligence artificielle (IA) en open source, face aux modèles fermés d’OpenAI (ChatGPT) et de Google. Le point sur ce débat récurrent dans la tech. - Open ou pas —Quand un logiciel est en « open source », l’accès à son code de programmation est libre : les développeurs peuvent le bricoler et le développer à leur guise.
Les passionnés de l’open source s’opposent historiquement aux entreprises qui veulent protéger leur propriété intellectuelle et source de revenus. Certaines technologies fondamentales d’internet, comme le système d’exploitation Linux et le serveur web Apache, sont ouvertes. Mais les logiciels open source sont souvent plus difficiles à manier pour les utilisateurs non initiés, plus complexes à maintenir à niveau en termes de qualité et, par définition, peu viables financièrement.
Llama n’est pas tout seul
LLama 3,1 est la dernière version du modèle d’IA générative de Meta, capable de produire des contenus de bonne facture, sur simple requête en langage courant. Ses performances sont comparables à celles de GPT-4 (OpenAI) ou de Gemini (Google), même si pour l’instant il ne traite que du texte (pas de compréhension visuelle ou auditive). D’autres sociétés laissent les développeurs accéder gratuitement à la technologie et l’adapter à leurs besoins spécifiques, sans avoir à partager leurs données, dont les start-up xAI (fondée par Elon Musk) et la Française Mistral. Google a en outre lancé Gemma en open source en février, mais Gemini (payant) est plus puissant. Meta et Google ont les moyens financiers de proposer une solution gratuite, mais les coûts initiaux d’entraînement des modèles, faramineux, compliquent la tâche aux jeunes pousses.
La conversion de Meta
« L’IA open source est la voie à suivre », a déclaré Mark Zuckerberg mardi en titre d’une lettre. Meta a ouvert une version précédente de Llama il y a un an, mais son approche continue de surprendre, de la part de la maison mère de Facebook et Instagram, des réseaux sociaux ultra fermés.
Le scandale de Cambridge Analytica, cette entreprise britannique qui se servait de Facebook pour récolter des données sur les utilisateurs à des fins nocives, a rendu le groupe californien encore plus prudent. Mais l’amertume à l’égard d’Apple, qui encadre strictement les applications externes sur ses iPhone, semble avoir influencé Meta. « Entre la façon dont ils taxent les développeurs, les règles arbitraires qu’ils appliquent et toutes les innovations de produits qu’ils empêchent d’être lancées, il est clair que Meta et beaucoup d’autres entreprises seraient libérées si […] des groupes ne limitaient pas ce que nous pouvons construire », a déclaré Mark Zuckerberg.
À l’ère de l’IA générative, ce sont Google et OpenAI (soutenu par Microsoft), qui dominent l’industrie et fixent les règles du jeu, avec leurs modèles fermés. Selon Yann LeCun, le spécialiste au sommet de l’IA chez Meta, la technologie ne peut progresser qu’en collaboration avec d’autres chercheurs et ingénieurs. « Plus vous avez de personnes qui contribuent, plus vous avancez vite », a-t-il dit lors d’une conférence fin 2023. « Je ne travaillerais pas pour une société qui ne fait pas de recherche ouverte ».
Les sceptiques, eux, affirment que Meta prône l’open source parce qu’elle est arrivée tardivement à la fête de l’IA et cherche ainsi à se différencier.
Moins de sécurité ?
Les défenseurs du modèle fermé soutiennent que l’IA en open source ouvre la porte à de potentiels abus dangereux. Meta estime au contraire que la transparence garantit plus de sécurité, puisque les modèles peuvent être examinés de près, et aussi plus de concurrence, au lieu de laisser quelques grandes entreprises et pays puissants, comme la Chine, garder le contrôle. « Nous devons garder à l’esprit que ces modèles sont entraînés sur des informations qui sont déjà sur internet », ajoute Mark Zuckerberg, « donc il faut se demander si un modèle peut faciliter plus de dommages » que les simples résultats d’une recherche sur Google.
À ce stade, les modèles sont surtout capables de régurgiter des données. Mais que se passera-t-il « quand des programmes open source pourront raisonner, concevoir et exécuter des plans complexes ? », demande Casey Newton, journaliste spécialisé dans la tech, en référence à l’ambition commune de tous les géants des technologies : développer des IA aussi intelligentes que les humains.