Configuration
Les fonctions IA de Scene Cut nécessitent un fournisseur externe. L'application ne fournit pas de service IA intégré — chaque utilisateur configure son propre accès dans Préférences > IA.
Les fournisseurs disponibles
| Fournisseur | Modèles recommandés | Clé API requise |
|---|---|---|
| Anthropic | Claude Sonnet 4.6, Claude Haiku 4.5 | Oui |
| OpenAI | GPT-4o, GPT-4o mini | Oui |
| Mistral | Mistral Large, Mistral Small | Oui |
| Groq | Llama 3.3 70B | Oui |
| OpenRouter | Accès à plusieurs modèles (Claude, GPT, Gemini…) | Oui |
| Ollama | Llama 3.1, Mistral, Qwen 2.5 | Non |
| Personnalisé | Modèle et URL au choix | Variable |
Configurer un fournisseur
- Ouvrir Préférences > IA
- Choisir le fournisseur dans la liste déroulante
- Saisir la clé API (disponible sur le site du fournisseur)
- Sélectionner le modèle souhaité
- Cliquer sur Tester la connexion pour vérifier que tout fonctionne
La clé API est stockée de manière sécurisée dans le trousseau macOS — elle n'est jamais enregistrée en clair dans les fichiers de préférences.
Utiliser un modèle local avec Ollama
Pour ceux qui préfèrent garder les données en local — ou qui travaillent sans connexion internet — Scene Cut est compatible avec Ollama, un serveur de modèles IA qui tourne directement sur la machine.
- Installer Ollama depuis ollama.com
- Télécharger un modèle :
ollama pull llama3.1(oumistral,qwen2.5…) - Dans Scene Cut, choisir Ollama comme fournisseur
- L'adresse par défaut (
http://localhost:11434) fonctionne sans modification - Aucune clé API nécessaire
Utiliser un point d'accès personnalisé
Le fournisseur Personnalisé permet de se connecter à n'importe quel service compatible avec le format de l'API OpenAI. Il suffit de renseigner l'URL de base et le nom du modèle. C'est utile pour les entreprises qui hébergent leurs propres modèles ou qui utilisent un proxy d'API.