🇫🇷WebFileTools/IA locale dans le navigateur
Blog
🧠

IA locale dans le navigateur

Exécutez un vrai LLM entièrement dans votre navigateur via WebGPU. Aucune clé API, aucun serveur, aucune donnée ne quitte votre appareil.

Choisir un modèle

🔒

Le modèle est téléchargé depuis HuggingFace et mis en cache localement dans votre navigateur (IndexedDB). Après le premier téléchargement, tout fonctionne hors-ligne. Aucune conversation n'est envoyée à un serveur.

Vous utilisez souvent cet outil ? Pro inclut des fichiers jusqu'à 500 Mo et un traitement prioritaire.

Qu'est-ce que IA locale dans le navigateur ?

L'outil IA locale de WebFileTools exécute de vrais modèles de langage (Llama 3.2, Phi-3.5 mini, Mistral 7B) directement dans votre navigateur via WebGPU, sans aucun envoi de données.

Comment utiliser cet outil ?

Choisissez un modèle, attendez le téléchargement initial (mis en cache ensuite), puis chattez librement. Tout reste sur votre machine.

Avantages

  • Aucune donnée envoyée
  • 3 modèles au choix
  • Fonctionne hors ligne après chargement
  • Mise en cache locale automatique

Questions fréquentes

Le modèle est-il téléchargé sur un serveur ?
Non, le modèle est téléchargé depuis HuggingFace directement dans votre navigateur et mis en cache localement (IndexedDB). Aucune requête ne passe par nos serveurs.
Faut-il télécharger le modèle à chaque visite ?
Non, le modèle est mis en cache dans votre navigateur lors du premier téléchargement. Les visites suivantes utilisent le cache local.
Quels navigateurs sont supportés ?
Chrome 113+, Edge 113+, et tout navigateur supportant WebGPU. Firefox et Safari ont un support partiel de WebGPU.
Puis-je utiliser l'IA sans connexion internet ?
Oui, une fois le modèle téléchargé et mis en cache, l'inférence fonctionne entièrement hors ligne.