Plex mausert sich neben Kodi mehr und mehr auch hierzulande zu einer der attraktivsten Software Anwendungen in Sachen Media-Center uns Server. Zuletzt hatte Plex seinen Einzug auf der NVIDIA Shield Android TV Streaming-Box feiern können (zum Beitrag). Wer also über die beliebte Game-Konsole verfügt und auch noch einen Amazon Echo sein Eigen nennen darf, wird in Kürze auch hierzulande in Zukunft seine private Plex Mediathek mithilfe des entsprechenden Alexa Skill via Sprache steuern können.
„One of your most popular requests has been integration with Amazon’s Alexa. We have been wanting to bring her into the fold for some time, but she couldn’t just be sprinkled in all willy nilly. She had to cover most of the important functions of Plex and be totally awesome right out of the gate. She has finally arrived, giving you the ability to get rid of your remote controls and use only your voice to control playback on your Plex clients. Ask what’s On Deck or have Alexa recommend something to listen to—let her take you for a ride!„
Wie das genau aussieht, zeigt das Unternehmen mit dem seit gestern in den USA verfügbaren Alexa Skill für Plex.
Wie bereits angedeutet ist der Alexa Skill für Plex noch nicht in Deutschland verfügbar, soll aber in Kürze folgen. Unabhängig davon, dass ich im Augenblick ein wenig an der Skill-Verfügbarkeit in Deutschland verzweifle, kommt eine weitere erschwerende Komponente ins Spiel, welche mich bei meinem aktuellen „Langzeittest“ mit den Amazon Echo und Echo Dot immer wieder stört.
Was wahrscheinlich die wenigsten wissen, bin ich schon über viele Jahre in Sachen Sprachsteuerung der Hausautomation tätig. Wer ein wenig im Internet recherchiert, wird unter Umständen noch ein Video aus dem Jahre 2010 entdecken, wo ich gemeinschaftlich mit dem kanadischen Developer James Richards an einer Umsetzung auf Basis der Kontrollfunktionen des Windows Media Centers, an der App VoxCommando gearbeitet habe.
Doch neben dem Problem mit den Mikrofonen, welches sich nun mit dem Amazon Echo erledigt hat, gibt es ein weiteres großes Problem. Man muss nach wie vor die „Befehle“ auswendig lernen. Will ich beispielsweise eine Information zu einer Nahverkehrsverbindung via BVG, so muss ich erst via Sprache die entsprechende App aktivieren. Auch die Zusatzkomponenten wie Philips Hue Lampen, der AnyMote Home Hub, der Logitech Harmony Hub oder einfache IFTTT-Steuerungen bedürfen spezieller Satz-Formulierungen ohne die sonst nix geht.
Oft genug ist es vorgekommen dass ich erst beim dritten Ansatz die korrekte Formulierung für das gewünschte Ergebnis erhalten habe.
Meiner Meinung nach ist es eine Frage der Zeit, bis freiwillige Beta-Tester wie wir, den Amazon und Google Server derart mit Daten bestückt haben, das nahezu jede „intuitive“ Sprachsteuerung auch weiß was sie zu tun hat. Oder der Endverbraucher resigniert vorher und die gesamte Idee erfährt den selben Luxus wie 3D-Fernsehen.
Samsung hat nun auf seinem Galaxy-Oktober-Event in Südkorea und den USA das Galaxy XR-Headset offiziell…
Anfang der Woche hat Vivo im Heimatland das als preiswert zu bezeichnende iQOO 15 präsentiert.…
Manch einer von Euch wird vermutlich schmunzeln, wenn wir wieder einmal über das Apple iPad…
Neben dem Realme GT 8 Pro, das mit austauschbaren Kamera-Arrays in runder und eckiger Form…
Noch vor dem OnePlus 15 und OnePlus Ace 6 hat nun das Schwester-Unternehmen heute das…
Bislang war der Exynos-Prozessor von Samsung eher ein Chip, welchen die werte Kundschaft gemieden hat.…
Diese Seite verwendet cookies.