Diaoul
SynoCommunity-
Compteur de contenus
2173 -
Inscription
-
Dernière visite
-
Jours gagnés
4
Tout ce qui a été posté par Diaoul
-
Y'a rien qui marche sur GitHub pour l'instant D'ailleurs, dans mon SPK de test j'ai même pas essayé pyaudio (portaudio sur Python). Je fais ça sur mon PC pour l'instant. Quand quelque chose sera prêt vous serez les premiers à savoir
-
C'est loin d'être prêt pour un utilisateur. Eventuellement un power user qui n'a pas peur de mettre les mains dans le cambouis. Ce que tu peux juste faire c'est voir si c'est reconnu sur ton Syno en bidouillant un peu. Ca dépend, si c'est la solution ultime qui marche à la perfection, pourquoi pas. Et puis d'occasion ou un modèle équivalent chez la concurence ça doit se trouver.
-
Ca me fait penser qu'en fait avec un micro blutooth attaché à la chemise ou une oreillette + micro à l'oreille, on résoudrait certainement les problèmes de Sp@ro sur la qualité du microphone en fonction de la distance ! De mon coté j'ai contacté http://www.acousticmagic.com pour savoir s'il m'était possible d'essayer un de leurs produits quelques jours afin de voir si le résultat est correct pour une utilisation 100% autonome. J'ai pas à ma disposition de clé USB blutooth et je ne sais même pas si ce sera reconnu par Syno. Quelqu'un a-t-il la possibilité de tester ? Ca peut valoir le coup (et même le coût).
-
A vrai dire, peu importe l'input et l'output dans Dobby, c'est entièrement paramètrable grace à portaudio et speech-dispatcher. Le fichier de config est là pour ça. Comme je disais, dans les Event levés par les Triggers (comme le Clapper), je vais intégrer le numéro de la source audio (micro) utilisée. Comme ça on pourra faire un traitement spécifique selon la source dans les Actions. Par contre ce qu'il ne sera pas possible de faire avec le design actuel de Dobby c'est l'écoute et la réponse à plusieurs personnes simultanément. Dans ce cas le mieux ce sera de lancer plusieurs Dobby et plusieurs Julius.
-
Alors perso j'ai fait mes tests dans un environnement sans trop de bruit sur un micro d'un micro-casque USB. Comme tu dis, pour obtenir le même rendu que ça avec un mic de webcam ça va être difficile, surtout si on rajoute la distance. J'ai aussi testé avec mon mic de webcam et oui c'est particulièrement pourrit ! J'avais vu un micro multidirectionnel dans les 30€, je pense que je testerai avec ça le temps voulu. Sinon, il y a sans doute la possibilité de retraiter le son pour enlever un maximum de choses (sauf la voix) avec quelques réglages sur la fréquence de la voix de l'utilisateur. Pour être intéressant je pense qu'il faut qu'une distance d'environ 1 à 2m donne satisfaction, plus c'est vraiment avec un bon micro et pour une utilisation partout dans la pièce. Tu noteras qu'avec le design actuel du Clapper, on peut lancer plusieurs Clapper sur différentes sources audio et récupérer le résultat dans la même event_queue. Je pense même stocker le numero du micro capté dans l’évènement ainsi que la Sequence qui a été matchée (pour une éventuelle utilisation ultérieure)
-
Bon, voici le lien du projet : https://github.com/Diaoul/Dobby Un peu de détails sur mon Clapper paramétrable qui fonctionne avec pyaudio (module Python de portaudio) : https://github.com/Diaoul/Dobby/blob/master/triggers/clapper.py Si vous avez des suggestions n'hésitez pas. Je trouve le code un peu lourd pour le Clapper
-
0.2.8 !
-
Webcam Karotz Dans Surveillance Station
Diaoul a répondu à un(e) sujet de mikael2235 dans Surveillance Station
Peut être mais je ne pense pas que quelqu'un ait déjà essayé. Après tout si tu peux capter le flux sur un client PC tu devrais pouvoir le capter sur le Syno. Par contre dans Surveillance Station, c'est autre chose. -
Quel OS choisir entre Windows et Linux pour faire un serveur ? Alors forcément, il faut préciser un peu le besoin, pour être le plus générique possible et laisser une chance à l'un comme à l'autre des candidats : Le plus polyvalent Le moins cher Le plus ergonomique / facile d'utilisation AMHA : Polyvalence : Linux : On peut lancer un multitude de services : FTP SSH SMB NFS LDAP Web (apache, nginx, etc.) etc. Il n'y a pas (encore?) d'équivalent à certaines applications microsoft (forcément) : Exchange Plus généralement, Linux propose plus de services mais pas packagé sous forme de solutions complètes (comme Exchange) TODO.
-
Hi, Piwi is developing a new interface for uMurmur SPK so at first I wanted to wait for it. That takes time and it's not easy so I will release 0.2.8 tonight
-
[Mpd] Installation De Music Player Daemon Sur Un Ds207+
Diaoul a répondu à un(e) sujet de 2spirit dans Audio Station
Oui, mais que sur les Syno ARMv6+, PPC et x86 Le DS-207+ a un ARMv5, pas supporté par Debian -
[Mpd] Installation De Music Player Daemon Sur Un Ds207+
Diaoul a répondu à un(e) sujet de 2spirit dans Audio Station
Pour info, j'ai cross compilé le support ALSA pour Syno avec succès. Plus besoin de se faire chier à spécifier le device /dev/dspx C'est ce que je vais utiliser pour mon SPK de reconaissance vocale. -
Impossible je pense, il s'agit d'un serveur minimaliste Je vais publier une nouvelle version de uMurmur avec la gestion des mots de passes par canal. Pour l'instant c'est pas possible.
-
Utilise un autre navigateur web. Genre Firefox. Ca devrait marcher
-
Bah j'ai rien fait pour l'instant mais disons que je peux faire en sorte que mon Syno répète ce que je dis avec un dictionnaire simple "Dial one one two" (du quickstart de julius par voxforge) Je vais démarrer un projet Python pour gérer les actions à effectuer en fonction des phrases identifiées. J'hésite encore à le faire en django...
-
Reconnaissance vocale via python : OK TTS via python : OK Les sources sont ici si vous voulez compilez vous même : https://github.com/SynoCommunity/spksrc/tree/speech
-
VICTOIRE ! speech-dispatcher : OK
-
Bon j'essaye une autre version de glib parce que la 2.30.2 me donne des stack overflow sur g_atomic_pointer_get
-
Les dernières nouvelles sur mon Syno : espeak : OK flite : OK julius : OK speech-dispatcher : Compile avec le support espeak et flite mais me fait un vilain "Segmentation Fault" à l'exécution. Je vais passer un coup de gdb là dedans pour voir si ça vient pas d'une erreur quelque part Si quelqu'un veut essayer de cross-compiler speech-dispacher de son coté ça pourrait permettre de comparer nos résultats
-
Hello, Il n'y a pas de page de configuration, le lien sur le desktop emmène juste vers le serveur Mumble avec une url en mumble:// Pour éditer la configuration il faut faire comme expliquer dans le 1er message de ce thread : ligne de commande ou CFE. Bon courage
-
En fait le décodage continue se fait par phrases donc dans une bouillie de paroles ça ne saura pas identifier un mot clé. Ce n'est pas du keyword spotting! En revanche, lorsque le volume sonore augmente (quelqu'un parle), julius commence sa détection et s'arrête lorsque le volume redescend (fin de la parole). Durant cette période, la voix est analysée, cette analyse est rapide avec un petit dictionnaire (20 mots, 4 grammaires (phrases type)) en anglais est est plutôt fiable. Le temps que je termine la phrase et moins de 1 seconde plus tard j'ai la transcription en texte. Dans un environnement calme et avec un bon dictionnaire, on peut immaginer quelque chose comme : - Dobby! - Oui? - La météo de demain s'il te plait - Blablabla J'envisage de faire un script Python à base de regexp comme me l'a suggéré Piwi pour catcher "météo" et "demain": ".*(météo|temps).*demain.*" Cette phrase serait reliée a des actions via une table SQLite et les déclencherait dans l'ordre. Voilà pour le fonctionnement global de l'appli que j'envisage. Bien sûr dès que je commencerai ça ce sera sur GitHub mais comme je l'ai dis dans un premier temps je vais essayer de faire fonctionner ça ensemble sans appli hein Je ne travail qu'en anglais pour l'instant, on verra le français plus tard. Je ne veux pas de faux bugs parce que le français n'est pas abouti et/ou mal configuré.
-
Bon, un petit retour sur Julius: Ca marche nikel, juste avec le support OSS je peux faire de la reconaissance en live. Ca fait moins brouillon que pocketsphinx et c'est super rapide avec un petit dico. La doc est aussi mieux faite et le mode serveur est vraiment intéressant. D'ailleurs speechd permet d'avoir une interface unique entre la reconaissance vocale (julius) et la synthèse vocale (flite/espeak) ce qui est bien pratique. Cependant j'ai quelques soucis à le faire fonctionner, la cross-compilation passe bien mais j'ai un segfault à l'exécution sur le Syno. Et comme il a beaucoup de dépendances (espeak/flite/glib) c'est pas facile d'identifier la cause. Ce qui est super cool c'est qu'il a un module python qui permet de manipuler la totale simplement! Autrement dit, passé la configuration, tout est faisable via python ce qui est bien pratique pour la création d'une application. Je vous tiens au courant de mon avancement, la prochaine étape étant d'arriver à faire fonctionner tout ce beau monde individuellement en incluant dans mon SPK de tests les fichiers de configuration et langage models. Puis de relier tout ça avec speechd et un scripts de test en python Puis de faire une appli python avec quelques modules comme "météo".
-
Contrôle d'un synthétiseur vocal via Python : https://github.com/parente/pyttsx
-
Pour interragir avec tout ça : http://devel.freebsoft.org/speechd Un petit mix des deux dans http://alfred.csquad.org/browser/trunk/lib/Alfred/interfaces/Voice.pm
-
Pour la synthèse vocal il parrait que Festival est mieux que eSpeak