Sommaire
Si vous souhaitez déporter la transcription sur le serveur d'encodage, les commandes suivantes sont à effectuer sur le serveur d'encodage (voir la page Déporter l'encodage sur un ou plusieurs serveurs en Pod V3)
Utilisation de l'auto-transcription dans Pod
...
Dans le fichier custom/settings-local.py, il suffit d’ajouter les paramètres suivant:
Pour Pod à partir de la version 3 avec fr et en :
...
Bloc de code | ||
---|---|---|
| ||
(django_pod3) pod@:/path/to/project/django_projects/transcription/fr/vosk/$ sudo apt-get install unzip (django_pod3) pod@:/path/to/project/django_projects/transcription/fr/vosk/$ unzip vosk-model-fr-0.6-linto-2.2.0.zip |
Dans le fichier custom/settings-local.py
, il suffit d’ajouter les paramètres suivants (a préciser egalement sur les frontaux pour qu'il puisse lister les langue/model de dispo depuis la 3.3.1) :
...
Les modèles utilisés pour l’enrichissement du modèle peuvent être stockés dans /path/to/project/django_projects/compile-model
Il faut télécharger le modèle de compilation correspondant sur ce lien : https://alphacephei.com/vosk/lm#update-process.
...
Whisper (v3.5.0)
Sur les encodeurs :
Bloc de code | ||
---|---|---|
| ||
pip install openai-whisper |
ou si vous souhaitez bénéficier des derniers commits
Bloc de code | ||
---|---|---|
| ||
pip install git+https://github.com/openai/whisper.git |
Sur le frontal :
Bloc de code | ||
---|---|---|
| ||
pip3 install openai-whisper |
Exemple de configuration du custom/settings_local :
...