Intelligence embarquée

ATOME

L'IA qui tient sur une puce à 2€

DÉFILER
6 kilo-octets.
Taille totale du modèle (50K paramètres)
Plus petit qu'un favicon.
Plus petit qu'un tweet.
Tient dans la mémoire d'une montre.
0 multiplications flottantes
Poids ternaires : chaque poids est -1, 0 ou +1
Pas de FPU nécessaire. Pas de GPU nécessaire.
Additionner, soustraire, ignorer. C'est tout.

Un cerveau dans chaque objet

ATOME fonctionne là où aucune autre IA ne peut exister.

💡
Ampoules
Commandes vocales locales. Sans cloud. Sans latence.
🚗
Automobiles
Détection d'intention vocale sur l'ECU existant.
Montres
Compréhension de texte au poignet. Classification de santé.
🏭
Industrie
Détection d'anomalies sur capteurs. Maintenance prédictive.
🧸
Jouets
Personnages interactifs avec compréhension locale.
🌾
Agriculture
Reconnaissance de patterns sur capteurs terrain.
🏥
Médical
Classification ECG/vitaux embarquée.
🔒
Sécurité
Détection de menaces. Aucune donnée ne quitte l'appareil.

Résultats réels

1.57 bpb
BITS PAR BYTE
Modèle de base, 200k étapes
3M params
PARAMÈTRES TOTAUX
600 KB — tient sur une disquette
10 tok/s
INFÉRENCE CPU
Sans GPU, machine standard
4x compression
VS FLOAT32
Ternaire natif, pas quantifié après coup
5 voies
ARCHITECTURE MULTI-VOIES
Conv + SSM + Attention + FFN + Router
2+2=4
ARITHMÉTIQUE
Le modèle calcule correctement

7 lignes. C'est tout.

Intégration sur n'importe quel microcontrôleur.

atome — ESP32 example
// ATOME sur ESP32 — intelligence locale
#include "atome.h"
 
atome_model_t model;
atome_state_t state;
atome_load(&model, flash_weights, sizeof(flash_weights));
atome_init(&state);
 
// Classifier l'intention de l'utilisateur
int intent = atome_classify_intent(&model, &state, tokens, n);
// 0=commande, 1=question, 2=déclaration, 3=salut, 4=math
 
// Zéro multiplication flottante. Pure addition.
// Fonctionne sans FPU, sans GPU, sans cloud.
_

Pourquoi ATOME change tout