AccueilEN
Intelligence artificielle

Configuration

Choisir un fournisseur IA, configurer la clé API et sélectionner un modèle.

Les fonctions IA de Scene Cut nécessitent un fournisseur externe. L'application ne fournit pas de service IA intégré — chaque utilisateur configure son propre accès dans Préférences > IA.

Les fournisseurs disponibles

FournisseurModèles recommandésClé API requise
AnthropicClaude Sonnet 4.6, Claude Haiku 4.5Oui
OpenAIGPT-4o, GPT-4o miniOui
MistralMistral Large, Mistral SmallOui
GroqLlama 3.3 70BOui
OpenRouterAccès à plusieurs modèles (Claude, GPT, Gemini…)Oui
OllamaLlama 3.1, Mistral, Qwen 2.5Non
PersonnaliséModèle et URL au choixVariable

Configurer un fournisseur

  1. Ouvrir Préférences > IA
  2. Choisir le fournisseur dans la liste déroulante
  3. Saisir la clé API (disponible sur le site du fournisseur)
  4. Sélectionner le modèle souhaité
  5. Cliquer sur Tester la connexion pour vérifier que tout fonctionne

La clé API est stockée de manière sécurisée dans le trousseau macOS — elle n'est jamais enregistrée en clair dans les fichiers de préférences.

Scene Cut est conçu pour consommer très peu de tokens par requête. En pratique, quelques euros suffisent pour effectuer de nombreux audits complets et des dizaines de suggestions, même sur un long métrage. Le coût d'utilisation de l'IA reste marginal par rapport au temps gagné.
Pour un usage professionnel régulier, Claude Sonnet offre le meilleur rapport qualité/pertinence pour le sous-titrage francophone. Pour un usage occasionnel ou un budget limité, Claude Haiku ou GPT-4o mini sont des alternatives plus économiques.

Utiliser un modèle local avec Ollama

Pour ceux qui préfèrent garder les données en local — ou qui travaillent sans connexion internet — Scene Cut est compatible avec Ollama, un serveur de modèles IA qui tourne directement sur la machine.

  1. Installer Ollama depuis ollama.com
  2. Télécharger un modèle : ollama pull llama3.1 (ou mistral, qwen2.5…)
  3. Dans Scene Cut, choisir Ollama comme fournisseur
  4. L'adresse par défaut (http://localhost:11434) fonctionne sans modification
  5. Aucune clé API nécessaire
Les modèles locaux sont généralement moins performants que les modèles cloud pour l'analyse linguistique fine, mais ils fonctionnent entièrement hors ligne et ne transmettent aucune donnée à l'extérieur.

Utiliser un point d'accès personnalisé

Le fournisseur Personnalisé permet de se connecter à n'importe quel service compatible avec le format de l'API OpenAI. Il suffit de renseigner l'URL de base et le nom du modèle. C'est utile pour les entreprises qui hébergent leurs propres modèles ou qui utilisent un proxy d'API.