Der CMS-Anbieter Signagelive experimentiert bereits seit längerem damit, AI-kreierten Content für Digital Signage verfügbar zu machen. Auf der ISE 2024 stellten die Briten eine Kooperation mit MeldX ein Modul vor, das Inhalte auf Basis von Sensordaten an das Publikum anpasst. Jetzt schuf der Anbieter eine Integration mit einer AI-Videorendering-Software des serbischen Start-ups Plainly, wie invidis-Contentpartner Sixteen-Nine berichtete. Die Anwendung rendert auf Basis von Datentabellen und Adobe After Effects-Templates eine Vielzahl von Videos für verschiedene Displays im Netzwerk. Damit sollen Signagelive-User den Prozess umgehen, einzelne Spots manuell an verschiedene Standorte anzupassen.
Der User erstellt zunächst ein Template in Adobe After Effects mit allen dynamischen Parametern, die im Video inkludiert sein sollen. In ein Google Sheet trägt er dann die Daten für diese Parameter ein, beispielsweise den Text und die Überschrift. Außerdem trägt er Tags ein, die Signagelive nutzt, um den Inhalt einem bestimmten Screen zuzuordnen. Durch die Integration beider Elemente zieht Plainly Daten aus dem Sheet und rendert standortspezifische Videos. Alternativ kann der User die Daten auch über eine API verfügbar machen.
Bisherige solcher AI-Tools zur Erstellung und Ausspielung von Digital Signage-Inhalten verwenden meist HTML5. Die Integration von Plainly in Signagelive zielt darauf ab, die Notwendigkeit von HTML5 durch AI-Videorendering zu umgehen. Damit soll der Automatismus unabhängig von der Rechenleistung der Screens im Digital Signage-Netzwerk funktionieren.