Qu'est-ce que l'IA Open Source?
- Définition: Modèles d'IA dont le code source est librement accessible, modifiable et distribuable
- Caractéristiques clés:
- Transparence et auditabilité
- Collaboration communautaire
- Démocratisation de l'accès
- Innovation distribuée
- Différence avec l'IA propriétaire: Contrôle, accessibilité, personnalisation
Chronologie de l'IA Open Source
- 2015: Publication de TensorFlow par Google, création de OpenIA
- 2016: PyTorch par Facebook AI Research
- 2019: Premiers LLM open source significatifs
- 2022: Explosion des LLM open source (Bloom, LLaMA)
- 2023: Démocratisation et modèles exécutables localement
L'Histoire d'OpenAI : De l'Organisation à But Non Lucratif à l'Entreprise Commerciale
OpenAI - Genèse et Vision Fondatrice
- Date de création: Décembre 2015
- Fondateurs:
- Sam Altman (ancien président de Y Combinator)
- Elon Musk (Tesla, SpaceX)
- Greg Brockman (ancien CTO de Stripe)
- Ilya Sutskever (ancien chercheur chez Google Brain)
- John Schulman
- Wojciech Zaremba
- Investissement initial: 1 milliard de dollars
- Mission originelle: "Faire progresser l'IA numérique de manière à bénéficier à l'humanité dans son ensemble, sans contraintes de génération de profit"
- Engagement initial: Publication ouverte de la recherche, collaboration avec d'autres institutions
OpenAI en tant qu'Organisation à But Non Lucratif (2015-2019)
- Structure juridique: 501(c)(3) - Organisation à but non lucratif
- Principes directeurs:
- Recherche ouverte et transparente
- Priorité à la sécurité de l'IA
- Large distribution des bénéfices
- Publications majeures:
- 2016: OpenAI Gym (environnement pour l'apprentissage par renforcement)
- 2017: DotA 2 bot battant des joueurs professionnels
- 2018: GPT-1 (117M paramètres)
- 2019: GPT-2 (1,5B paramètres) - Controverse sur la publication limitée
- Départ d'Elon Musk: Février 2018, citant des conflits d'intérêts potentiels avec Tesla
La Transition - Création d'OpenAI LP (2019)
- Date du changement: Mars 2019
- Nouvelle structure: Structure hybride avec:
- OpenAI Inc. (organisation à but non lucratif) comme actionnaire majoritaire
- OpenAI LP (société à responsabilité limitée) pour les opérations commerciales
- Justification officielle:
- Besoin de capitaux massifs pour la recherche en IA
- Nécessité d'attirer et retenir les talents
- Capacité à construire des produits commerciaux
- Limitations annoncées:
- Plafond de retour sur investissement (100x) pour les premiers investisseurs
- Gouvernance maintenue par l'entité à but non lucratif
- Engagement à la "mission de bienfaisance"
Détails de la Structure Hybride
- OpenAI Inc. (non-profit):
- Conseil d'administration contrôlant la mission
- Pouvoir de décision sur les questions de sécurité
- Capacité de révoquer les licences de propriété intellectuelle
- OpenAI LP (for-profit):
- Gestion des opérations quotidiennes
- Développement des produits commerciaux
- Attraction d'investissements
- Clause de gouvernance: Si OpenAI Inc. détermine qu'une AGI (Intelligence Artificielle Générale) a été créée, tous les intérêts des investisseurs sont subordonnés à la mission
L'Ère Microsoft (2019-2021)
- Juillet 2019: Investissement de Microsoft de 1 milliard de dollars
- Termes de l'accord:
- Partenariat exclusif pour l'infrastructure cloud Azure
- Licence de technologies pour les produits commerciaux
- Siège au conseil d'administration sans droit de vote
- Développements clés:
- Mai 2020: Licence exclusive de GPT-3 à Microsoft
- Juin 2020: Lancement d'API GPT-3 commerciale
- Septembre 2020: Microsoft obtient une licence exclusive pour utiliser GPT-3
- Évolution de la transparence:
- Diminution des publications détaillées
- Transition vers des "papiers de système" moins techniques
Accélération Commerciale (2021-2022)
- Produits commerciaux:
- DALL-E (janvier 2021)
- Codex (août 2021)
- DALL-E 2 (avril 2022)
- Whisper (septembre 2022)
- Modèle économique émergent:
- API payante avec tarification par jeton
- Licences commerciales
- Produits grand public avec freemium
- Changements organisationnels:
- Départs de plusieurs chercheurs clés
- Recrutement orienté vers le développement produit
- Réorganisation interne privilégiant les applications commerciales
L'Explosion ChatGPT et Après (2022-2023)
- 30 novembre 2022: Lancement de ChatGPT
- 1 million d'utilisateurs en 5 jours
- 100 millions d'utilisateurs en 2 mois (adoption la plus rapide de l'histoire)
- Janvier 2023: Lancement de ChatGPT Plus (20$/mois)
- Février 2023: Microsoft annonce l'intégration de la technologie OpenAI dans Bing
- Mars 2023: GPT-4 est dévoilé, disponible uniquement via API payante et ChatGPT Plus
- Avril 2023: Sam Altman reconnaît que l'entreprise n'est plus vraiment "open" dans une interview
Restructuration et Investissement Massif (2023)
- Janvier 2023: Microsoft annonce un nouvel investissement de 10 milliards de dollars
- Termes rapportés:
- Valorisation d'OpenAI à ~29 milliards de dollars
- Microsoft recevrait 75% des profits jusqu'au remboursement de l'investissement
- Puis 49% des profits d'OpenAI
- Juillet 2023: Création d'OpenAI Startup Fund (100M$)
- Novembre 2023: Crise de gouvernance
- Sam Altman licencié puis réintégré
- Restructuration du conseil d'administration
- Microsoft obtient un siège d'observateur sans droit de vote
Structure Actuelle
- Conseil d'administration remanié:
- Bret Taylor (président)
- Larry Summers
- Adam D'Angelo
- Sam Altman
- Greg Brockman
- Microsoft (observateur sans droit de vote)
- Valorisation: ~80-90 milliards de dollars en 2024
- Modèle économique:
- API (GPT-4, DALL-E 3, etc.)
- ChatGPT Plus et Team/Enterprise
- GPTs Store (place de marché)
- Licences pour partenaires (Microsoft, etc.)
- Évolution de la mission:
- De "IA bénéfique pour l'humanité" à "AGI sûre et bénéfique"
- Accent mis sur la sécurité plutôt que sur l'ouverture
- Changements dans les pratiques:
- Diminution des publications détaillées de recherche
- Transition de code open source vers API propriétaires
- Modèles de plus en plus fermés (GPT-4 sans publication technique)
- Tensions internes documentées:
- Entre mission originelle et impératifs commerciaux
- Entre sécurité et compétitivité
- Entre transparence et avantage propriétaire
Justifications et Critiques du Changement
- Justifications d'OpenAI:
- Nécessité de ressources massives pour la recherche avancée
- Protection contre une utilisation malveillante
- Déploiement progressif pour évaluer les risques
- Viabilité économique pour la mission à long terme
- Critiques externes:
- Abandon de la promesse d'ouverture
- Concentration du pouvoir et des bénéfices
- Manque de transparence sur les modèles
- Contradiction avec la mission originelle
Impact sur l'Écosystème de l'IA
- Réaction du mouvement open source:
- Émergence de projets comme BLOOM, LLaMA, Mistral
- Création d'alternatives communautaires (LAION, EleutherAI)
- Influence sur l'industrie:
- Modèle d'affaires imité par d'autres startups
- Course aux armements en IA entre géants technologiques
- Débat éthique:
- Tension entre commercialisation et bien commun
- Questions sur la gouvernance appropriée pour l'IA avancée
- Réflexion sur les structures organisationnelles optimales
Leçons et Questions pour l'Avenir
- Leçons de la trajectoire d'OpenAI:
- Difficultés de maintenir une mission altruiste face aux pressions économiques
- Importance des structures de gouvernance initiales
- Tension entre ouverture et compétitivité
- Questions ouvertes:
- Une IA véritablement "ouverte" est-elle viable économiquement?
- Comment équilibrer sécurité, profit et bien commun?
- Quels modèles alternatifs pourraient émerger?
- Quel rôle pour la réglementation dans cet écosystème?
Depuis GPT : Tableau de Synthèse des Modèles LLM Open Source
Modèle |
Tailles disponibles |
Licence |
Date |
Langues |
Contexte |
Usage recommandé |
Particularités |
LLaMA |
7B, 13B, 33B, 65B |
Licence propriétaire avec accès limité à la recherche |
Février 2023 |
Principalement anglais |
2K tokens |
Recherche |
Premier modèle de Meta à performances compétitives |
LLaMA 2 |
7B, 13B, 70B |
Licence Meta permissive (usage commercial autorisé pour <700M utilisateurs) |
Juillet 2023 |
Principalement anglais |
4K tokens |
Production, fine-tuning |
Versions Chat et base disponibles |
LLaMA 2-Chat |
7B, 13B, 70B |
Licence Meta permissive |
Juillet 2023 |
Principalement anglais |
4K tokens |
Chatbots, assistants |
Optimisé pour le dialogue, RLHF |
Code LLaMA |
7B, 13B, 34B |
Licence Meta permissive |
Août 2023 |
Code (multi-langage) |
4K tokens |
Génération de code |
Fine-tuné sur du code source |
LLaMA 3 |
8B, 70B |
Licence Meta permissive |
Avril 2024 |
Multilingue amélioré |
8K tokens |
Production, recherche |
Performance améliorée, meilleur multilinguisme |
Famille Mistral (Mistral AI)
Modèle |
Tailles disponibles |
Licence |
Date |
Langues |
Contexte |
Usage recommandé |
Particularités |
Mistral 7B |
7B |
Apache 2.0 |
Septembre 2023 |
Principalement anglais |
8K tokens |
Production, fine-tuning |
Architecture optimisée, surpasse LLaMA 2 13B |
Mistral 7B Instruct |
7B |
Apache 2.0 |
Octobre 2023 |
Principalement anglais |
8K tokens |
Assistants, chatbots |
Version instruite de Mistral 7B |
Mixtral 8x7B |
47B (MoE) |
Apache 2.0 |
Décembre 2023 |
Multilingue |
32K tokens |
Production, applications avancées |
Architecture Mixture of Experts (8 experts) |
Mixtral 8x7B Instruct |
47B (MoE) |
Apache 2.0 |
Décembre 2023 |
Multilingue |
32K tokens |
Assistants, chatbots |
Version instruite de Mixtral |
Mistral Large |
Non divulgué |
Propriétaire (API) |
Mars 2024 |
Multilingue |
32K tokens |
Applications professionnelles |
Disponible uniquement via API |
Famille Falcon (Technology Innovation Institute)
Modèle |
Tailles disponibles |
Licence |
Date |
Langues |
Contexte |
Usage recommandé |
Particularités |
Falcon |
7B, 40B |
Apache 2.0 |
Mars 2023 |
Anglais, arabe |
2K tokens |
Recherche, fine-tuning |
Entraîné sur 1,5T tokens |
Falcon Instruct |
7B, 40B |
Apache 2.0 |
Mai 2023 |
Anglais, arabe |
2K tokens |
Assistants, chatbots |
Version instruite de Falcon |
Falcon RW |
7B, 40B |
Apache 2.0 |
Juin 2023 |
Anglais, arabe |
2K tokens |
Recherche, fine-tuning |
Entraîné sur RefinedWeb dataset |
Falcon 180B |
180B |
TII Falcon License (usage commercial autorisé) |
Septembre 2023 |
Multilingue |
8K tokens |
Applications avancées |
Un des plus grands modèles open source |
Famille BLOOM (BigScience)
Modèle |
Tailles disponibles |
Licence |
Date |
Langues |
Contexte |
Usage recommandé |
Particularités |
BLOOM |
560M, 1.1B, 1.7B, 3B, 7.1B, 176B |
OpenRAIL-M (Responsible AI License) |
Juillet 2022 |
46 langues |
2K tokens |
Recherche, multilinguisme |
Premier grand LLM véritablement multilingue |
BLOOMZ |
560M à 176B |
OpenRAIL-M |
Novembre 2022 |
46 langues |
2K tokens |
Tâches multilingues |
Fine-tuné sur instructions multilingues |
mT0 |
580M à 13B |
OpenRAIL-M |
Novembre 2022 |
46 langues |
2K tokens |
Tâches multilingues |
Variante de BLOOM optimisée pour les tâches |
Famille MPT (MosaicML/Databricks)
Modèle |
Tailles disponibles |
Licence |
Date |
Langues |
Contexte |
Usage recommandé |
Particularités |
MPT-7B |
7B |
Apache 2.0 |
Mai 2023 |
Anglais |
8K tokens |
Recherche, fine-tuning |
Architecture optimisée pour long contexte |
MPT-7B-Instruct |
7B |
Apache 2.0 |
Mai 2023 |
Anglais |
8K tokens |
Assistants, chatbots |
Version instruite de MPT-7B |
MPT-7B-Chat |
7B |
Apache 2.0 |
Mai 2023 |
Anglais |
8K tokens |
Chatbots |
Optimisé pour le dialogue |
MPT-7B-StoryWriter |
7B |
Apache 2.0 |
Mai 2023 |
Anglais |
65K tokens |
Génération narrative |
Spécialisé pour l'écriture créative |
MPT-30B |
30B |
Apache 2.0 |
Juin 2023 |
Anglais |
8K tokens |
Applications avancées |
Version plus grande et performante |
Famille Pythia (EleutherAI)
Modèle |
Tailles disponibles |
Licence |
Date |
Langues |
Contexte |
Usage recommandé |
Particularités |
Pythia |
70M à 12B |
Apache 2.0 |
Février 2023 |
Anglais |
2K tokens |
Recherche, interprétabilité |
Suite de modèles avec checkpoints intermédiaires |
Pythia-Chat |
12B |
Apache 2.0 |
Mars 2023 |
Anglais |
2K tokens |
Chatbots |
Version fine-tunée pour le dialogue |
Pythia-Deduped |
70M à 12B |
Apache 2.0 |
Février 2023 |
Anglais |
2K tokens |
Recherche |
Entraîné sur données dédupliquées |
Famille OLMo (AI2/OLMo)
Modèle |
Tailles disponibles |
Licence |
Date |
Langues |
Contexte |
Usage recommandé |
Particularités |
OLMo |
1B, 7B |
Apache 2.0 |
Janvier 2024 |
Anglais |
2K tokens |
Recherche, fine-tuning |
Transparence totale (données, code, checkpoints) |
OLMo-Instruct |
7B |
Apache 2.0 |
Janvier 2024 |
Anglais |
2K tokens |
Assistants |
Version instruite d'OLMo |
OLMo-Reasoning |
7B |
Apache 2.0 |
Mars 2024 |
Anglais |
2K tokens |
Raisonnement |
Optimisé pour les tâches de raisonnement |
Famille Yi (01.AI)
Modèle |
Tailles disponibles |
Licence |
Date |
Langues |
Contexte |
Usage recommandé |
Particularités |
Yi |
6B, 34B |
Yi License (usage commercial autorisé) |
Novembre 2023 |
Anglais, chinois |
4K tokens |
Recherche, fine-tuning |
Performances élevées en anglais et chinois |
Yi-Chat |
6B, 34B |
Yi License |
Novembre 2023 |
Anglais, chinois |
4K tokens |
Chatbots, assistants |
Version instruite de Yi |
Yi-VL |
6B, 34B |
Yi License |
Janvier 2024 |
Anglais, chinois |
4K tokens |
Vision-langage |
Capacités multimodales (texte + image) |
Famille Gemma (Google)
Modèle |
Tailles disponibles |
Licence |
Date |
Langues |
Contexte |
Usage recommandé |
Particularités |
Gemma |
2B, 7B |
Gemma License (usage commercial autorisé) |
Février 2024 |
Anglais |
8K tokens |
Recherche, fine-tuning, déploiement léger |
Dérivé de Gemini, optimisé pour efficacité |
Gemma-Instruct |
2B, 7B |
Gemma License |
Février 2024 |
Anglais |
8K tokens |
Assistants, chatbots |
Version instruite de Gemma |
Modèles Spécialisés
Modèle |
Tailles disponibles |
Licence |
Date |
Langues |
Contexte |
Usage recommandé |
Particularités |
StarCoder |
15.5B |
Apache 2.0 |
Mai 2023 |
Code (80+ langages) |
8K tokens |
Génération de code |
Entraîné sur The Stack (GitHub) |
StarCoder 2 |
3B, 7B, 15B |
Apache 2.0 |
Février 2024 |
Code (80+ langages) |
16K tokens |
Génération de code |
Version améliorée de StarCoder |
CodeLLaMA |
7B, 13B, 34B |
Licence Meta permissive |
Août 2023 |
Code (multi-langage) |
16K tokens |
Génération de code |
Fine-tuné sur du code source |
Phi-2 |
2.7B |
MIT |
Décembre 2023 |
Anglais |
2K tokens |
Déploiement léger, éducation |
Petit modèle très performant |
Orca 2 |
7B, 13B |
Licence AI2 Orca |
Octobre 2023 |
Anglais |
4K tokens |
Raisonnement, assistants |
Entraîné par imitation de GPT-4 |
SOLAR |
10.7B |
SOLAR Community License |
Janvier 2024 |
Anglais |
4K tokens |
Assistants, chatbots |
Optimisé pour les instructions |
Modèles LLM Véritablement Open Source selon les Critères de l'OSI
L'Open Source Initiative (OSI) reconnaît certaines licences comme conformes à la définition de l'open source. Pour qu'un modèle soit considéré véritablement open source selon l'OSI, il doit être distribué sous une licence approuvée par l'OSI qui garantit les libertés de redistribution, modification, et utilisation sans restriction, y compris commerciale.
Modèles LLM Véritablement Open Source (Licences Approuvées par l'OSI)
Modèle |
Famille |
Tailles |
Licence |
Conformité OSI |
Remarques |
Mistral 7B |
Mistral AI |
7B |
Apache 2.0 |
✅ |
Totalement open source sans restrictions |
Mistral 7B Instruct |
Mistral AI |
7B |
Apache 2.0 |
✅ |
Version instruite également open source |
Mixtral 8x7B |
Mistral AI |
47B (MoE) |
Apache 2.0 |
✅ |
Architecture MoE sous licence approuvée |
Mixtral 8x7B Instruct |
Mistral AI |
47B (MoE) |
Apache 2.0 |
✅ |
Version instruite également open source |
Falcon |
TII |
7B, 40B |
Apache 2.0 |
✅ |
Modèles de base totalement open source |
Falcon Instruct |
TII |
7B, 40B |
Apache 2.0 |
✅ |
Versions instruites également open source |
Falcon RW |
TII |
7B, 40B |
Apache 2.0 |
✅ |
Variante RefinedWeb également open source |
MPT (tous modèles) |
MosaicML |
7B, 30B |
Apache 2.0 |
✅ |
Toute la famille est véritablement open source |
Pythia (tous modèles) |
EleutherAI |
70M à 12B |
Apache 2.0 |
✅ |
Suite complète sous licence approuvée |
OLMo (tous modèles) |
AI2 |
1B, 7B |
Apache 2.0 |
✅ |
Transparence totale et licence approuvée |
StarCoder |
BigCode |
15.5B |
Apache 2.0 |
✅ |
Modèle de code véritablement open source |
StarCoder 2 |
BigCode |
3B, 7B, 15B |
Apache 2.0 |
✅ |
Nouvelle version également open source |
Phi-2 |
Microsoft |
2.7B |
MIT |
✅ |
Rare modèle Microsoft sous licence MIT |
RedPajama |
Together/LAION |
3B, 7B |
Apache 2.0 |
✅ |
Initiative open source collaborative |
StableLM |
Stability AI |
3B, 7B |
CC BY-SA 4.0 |
✅ |
Licence Creative Commons approuvée OSI |
OpenLLaMA |
OpenLM Research |
3B, 7B, 13B |
Apache 2.0 |
✅ |
Réimplémentation open source de LLaMA |
Dolly |
Databricks |
3B, 7B, 12B |
MIT |
✅ |
Premiers modèles instruits open source |
Modèle |
Famille |
Licence |
Statut OSI |
Restrictions |
LLaMA / LLaMA 2 |
Meta |
Licence Meta |
❌ |
Limite d'utilisateurs (700M), restrictions d'usage |
BLOOM / BLOOMZ |
BigScience |
OpenRAIL-M |
❌ |
Restrictions d'usage (pas d'utilisation nuisible) |
Falcon 180B |
TII |
TII Falcon License |
❌ |
Restrictions d'usage et de responsabilité |
Yi |
01.AI |
Yi License |
❌ |
Restrictions commerciales et d'usage |
Gemma |
Google |
Gemma License |
❌ |
Restrictions d'usage et de responsabilité |
Claude Sonnet |
Anthropic |
Anthropic License |
❌ |
Restrictions significatives d'usage |
CodeLLaMA |
Meta |
Licence Meta |
❌ |
Mêmes restrictions que LLaMA 2 |
SOLAR |
Upstage |
SOLAR Community License |
❌ |
Restrictions d'usage commercial |
Orca 2 |
Microsoft |
Licence AI2 Orca |
❌ |
Restrictions d'usage et de responsabilité |
Avant de continuer, Qu'est-ce que le Poids d'une IA ?
Définition Technique
Le terme "poids" dans le contexte des modèles d'intelligence artificielle, notamment des grands modèles de langage (LLM), fait référence aux paramètres appris par le modèle durant son entraînement. Ces paramètres sont des valeurs numériques qui définissent comment le réseau neuronal traite les informations.
Caractéristiques des Poids
- Nature mathématique: Les poids sont des valeurs numériques (généralement des nombres à virgule flottante) stockées dans des matrices et tenseurs.
- Quantité: Exprimée en nombre de paramètres
- GPT-3: 175 milliards de paramètres
- LLaMA 2 70B: 70 milliards de paramètres
- Mistral 7B: 7 milliards de paramètres
- Taille de stockage: Généralement mesurée en gigaoctets (Go)
- Format standard (FP32): ~4 octets par paramètre
- Un modèle de 7B paramètres ≈ 28 Go en FP32
- Un modèle de 70B paramètres ≈ 280 Go en FP32
- Importance conceptuelle: Les poids représentent la "connaissance" ou les "capacités" acquises par le modèle pendant l'entraînement.
Les poids peuvent être stockés dans différents formats de précision, affectant la taille et les performances:
Format |
Octets par paramètre |
Taille pour 7B |
Précision |
Usage |
FP32 (float32) |
4 octets |
~28 Go |
Complète |
Entraînement, inférence haute précision |
FP16 (float16) |
2 octets |
~14 Go |
Réduite |
Entraînement efficace, inférence rapide |
BF16 (bfloat16) |
2 octets |
~14 Go |
Intermédiaire |
Bon compromis entraînement/inférence |
INT8 |
1 octet |
~7 Go |
Quantifiée |
Inférence efficace |
INT4 |
0,5 octet |
~3,5 Go |
Fortement quantifiée |
Inférence sur appareils limités |
Quantification des Poids
La quantification est le processus de réduction de la précision numérique des poids:
- Objectif: Réduire l'empreinte mémoire et accélérer l'inférence
- Méthodes populaires:
- GGML/GGUF: Formats développés pour LLaMA.cpp
- GPTQ: Quantification post-entraînement
- AWQ: Quantification adaptative des poids
- QLoRA: Fine-tuning avec quantification
Distinction Importante
Dans le domaine des LLM, il faut distinguer:
- Architecture: La structure du réseau neuronal (nombre de couches, dimensions, etc.)
- Poids: Les valeurs numériques spécifiques des paramètres
- Code: L'implémentation logicielle qui utilise l'architecture et les poids
Implications pour l'Open Source
- Un modèle n'est véritablement open source que si ses poids sont disponibles sous licence open source
- Certains projets partagent le code mais pas les poids, ou vice-versa
- La taille des poids est un facteur limitant pour le partage et l'utilisation des modèles
Analogie Simplifiée
On peut comparer les poids d'une IA à:
- Le "cerveau" du modèle (les connaissances acquises)
- Un livre de recettes très détaillé qui indique comment traiter chaque information
- La mémoire à long terme du système
Impact Pratique
La taille des poids détermine:
- Ressources matérielles requises: Mémoire RAM/VRAM nécessaire
- Vitesse d'inférence: Les modèles plus petits sont généralement plus rapides
- Capacités: Les modèles avec plus de paramètres ont généralement (mais pas toujours) de meilleures capacités
- Coût de déploiement: Stockage, bande passante, puissance de calcul
Les poids représentent donc l'essence même d'un modèle d'IA - le résultat concret du processus d'apprentissage qui définit ses capacités et son comportement.
- Licences Approuvées par l'OSI utilisées dans les LLM:
- Apache 2.0: La plus courante pour les modèles véritablement open source
- MIT: Utilisée par quelques modèles (Phi-2, certains Dolly)
- CC BY-SA 4.0: Utilisée par StableLM
- Licences Non Conformes aux Critères OSI:
- Licences "permissives avec restrictions": LLaMA, Gemma, Yi
- Licences "responsables" avec clauses éthiques: OpenRAIL-M (BLOOM)
- Licences hybrides commerciales/non-commerciales
- Pourquoi certaines licences ne sont pas approuvées par l'OSI:
- Restrictions sur les cas d'utilisation (interdiction de certains usages)
- Limitations du nombre d'utilisateurs
- Clauses de non-concurrence
- Exigences de partage des améliorations
- Restrictions sur l'usage commercial
Remarques Importantes
- Code vs Poids: Certains modèles ont leur code source sous licence approuvée OSI mais leurs poids (paramètres) sous licence plus restrictive
- Données d'entraînement: La licence du modèle ne garantit pas que les données d'entraînement soient elles-mêmes open source
- Évolution des licences: Certains modèles ont changé de licence au fil du temps (généralement vers plus de restrictions)
- Tendance récente: Émergence de licences "responsables" qui tentent d'équilibrer ouverture et prévention des usages nuisibles
Modèles Particulièrement Notables pour l'Open Source
- Mistral 7B et Mixtral 8x7B: Modèles de haute performance sous licence Apache 2.0 sans restrictions
- OLMo: Transparence totale (code, données, processus d'entraînement) sous licence Apache 2.0
- Pythia: Suite de modèles avec checkpoints intermédiaires pour la recherche en interprétabilité
- MPT: Modèles optimisés pour contexte long sous licence véritablement open source
- StarCoder/StarCoder 2: Modèles de code entièrement open source
Ces modèles représentent les options les plus alignées avec la philosophie open source selon les critères de l'OSI, offrant une liberté totale d'utilisation, modification et redistribution.
Outils et Frameworks Open Source
- Frameworks de développement:
- Hugging Face Transformers
- LangChain
- LlamaIndex
- Plateformes de déploiement:
- Outils d'optimisation:
- GGML/GGUF
- Quantization tools (bitsandbytes)
- LLM.int8()
Acteurs Majeurs de l'IA Open Source
- Entreprises:
- Meta AI (LLaMA)
- Mistral AI (Mistral, Mixtral)
- EleutherAI (GPT-J, GPT-NeoX)
- Organisations:
- Hugging Face (hub de modèles, outils)
- BigScience (BLOOM)
- Technology Innovation Institute (Falcon)
- Communautés:
- LAION
- CarperAI
- Open Assistant
Enjeux de l'IA Open Source
- Démocratisation de l'accès:
- Réduction des barrières d'entrée
- Souveraineté technologique
- Innovation distribuée:
- Accélération de la recherche
- Diversification des applications
- Transparence et confiance:
- Auditabilité des systèmes
- Compréhension des biais et limitations
- Équilibre de pouvoir:
- Contrepoids aux monopoles technologiques
Défis Actuels
- Ressources computationnelles:
- Coûts d'entraînement prohibitifs
- Empreinte carbone
- Qualité des données:
- Épuisement des données de qualité
- Problèmes de copyright
- Gouvernance:
- Licences adaptées
- Standards de sécurité
- Compétition avec les modèles propriétaires:
- Écart de performance
- Ressources marketing
Risques et Préoccupations
- Sécurité:
- Utilisation malveillante facilitée
- Désinformation à grande échelle
- Éthique:
- Biais dans les modèles
- Consentement des données d'entraînement
- Économiques:
- Disruption du marché du travail
- Concentration des bénéfices
- Réglementaires:
- Responsabilité légale
- Conformité aux régulations (EU AI Act, etc.)
L'Avenir de l'IA Open Source
- Tendances émergentes:
- Modèles spécialisés et efficaces
- IA multimodale open source
- Modèles exécutables sur appareils personnels
- Évolutions probables:
- Convergence des performances avec les modèles propriétaires
- Écosystèmes d'applications spécifiques
- Nouveaux modèles économiques
- Scénarios possibles:
- Coexistence modèles ouverts/fermés
- Régulation différenciée
- Standardisation des interfaces
Conclusion
- L'IA open source comme force d'équilibre
- Nécessité d'une approche collaborative
- Importance de la gouvernance responsable
- Opportunités pour les organisations et individus
- Questions à explorer collectivement
Ressources et Références
- Communautés: Hugging Face, EleutherAI, LAION
- Documentation: Papers With Code, arXiv
- Outils: GitHub repositories, Model cards
- Actualités: AI Alignment Newsletter, The Gradient
- Bibliographie sélective
Pour faire fonctionner efficacement une IA de type LLM (Large Language Model) ainsi qu'un outil d'automatisation comme n8n, il est important de disposer d'une configuration matérielle adaptée. Voici une recommandation générale pour une machine personnelle ou un serveur dédié :
1. Processeur (CPU)
- Recommandation : Un processeur puissant avec plusieurs cœurs, comme un Intel Core i7/i9 ou AMD Ryzen 7/9.
- Rôle : Gérer les tâches générales, l'exécution de scripts, et l'orchestration.
2. Mémoire RAM
- Recommandation : Minimum 32 Go, idéalement 64 Go ou plus.
- Rôle : Permettre de charger et d'exécuter des modèles LLM volumineux, ainsi que de faire tourner n8n sans ralentissement.
3. Carte Graphique (GPU)
- Recommandation : Une carte GPU avec une grande capacité de mémoire, comme une NVIDIA RTX 3080, 3090 ou une carte de la série A (A100, A40).
- Rôle : Accélérer l'inférence des modèles LLM, qui sont très gourmands en calculs.
4. Stockage
- Recommandation : SSD d'au moins 1 To pour des performances optimales.
- Rôle : Stocker le système d'exploitation, les modèles, et les données.
5. Connexion Internet
- Recommandation : Une connexion stable et rapide si vous utilisez des modèles en ligne ou des API.
6. Système d'exploitation
- Recommandation : Linux (Ubuntu ou autre distribution) pour une meilleure compatibilité avec les outils d'IA et n8n.
Option Cloud (si vous ne souhaitez pas investir dans du matériel)
- Utiliser des services cloud comme AWS, Google Cloud ou Azure, qui proposent des instances GPU puissantes.
- Cela permet de scaler selon vos besoins et d'éviter l'achat de matériel coûteux.
En résumé
Composant |
Recommandation |
CPU |
Intel i7/i9 ou AMD Ryzen 7/9 |
RAM |
32-64 Go |
GPU |
NVIDIA RTX 3080/3090 ou équivalent |
Stockage |
SSD 1 To ou plus |
Connexion |
Internet haut débit |
OS |
Linux (Ubuntu) |