Diesen Eindruck gewinnt man, beschäftigt man sich einmal etwas intensiver mit AX Semantics. Die Software, die aus Content Daten schreibt, kann das vollständig automatisiert und in 24 Sprachen. So wird es zumindest auf den ersten Blick suggeriert. Steigt man etwas tiefer ein, erkennt man schon bald: So einfach ist das dann doch nicht.
Denn eine künstliche Intelligenz ist nicht per se intelligent, sondern sie muss lernen. Und hier haben wir wieder den menschlichen Faktor, denn es liegt am Menschen, welcher die Maschine anlernen und trainieren muss, damit sie auch intelligent arbeiten kann.
Felix Wunderwald von AX Semantics hat dazu in einem Interview auf termfrequenz.de gesagt: „Mit KI kann man Texte schreiben, die niemand recherchieren und schreiben könnte. Texter müssen zukünftig auch Tools fürs Content-Generieren füttern können. […]“.
Damit können Redakteure erst einmal aufatmen, denn sie werden nicht durch eine KI wegrationiert, auch in Zukunft nicht.
Sind automatisierte Texte wirklich besser als manuell geschriebene Texte?
Schaut man sich die auf KI basierte Lösung genauer an, sieht man recht schnell, dass es keinen wirklich rein automatisierten Text gibt. Denn obwohl eine künstliche Intelligenz aus den ihr vorliegenden Daten sicherlich problemlos einen Text erstellen könnte, fehlt ihr das, was einen menschlichen Redakteur ausmacht: Schreibstil, Dialekt, Witz und die persönliche Note.
Die kann man nun als „Daten-Betexter“ manuell in den Erstellungsprozess hineinoperieren, so zumindest die Produktbeschreibung der NLG Cloud. Dann erhält man einen personalisiert-automatisierten Text. Nur ob der dann wirklich besser ist als ein rein manuell geschriebener Text?
Diese Frage ist sicherlich etwas differenziert zu betrachten und mit weiteren Fragestellungen verbunden:
- Wofür ist dieser Text gedacht?
- Für Leser eines Blogs? Für Nutzer eines internen Wikis? Für Zeitungsleser?
- Welche Daten liegen dem Text zugrunde?
- Unternehmswissen
- Daten aus dem Social Web
- Daten aus Wikis und Synonymdatenbanken
- Welche Ziele liegen dem Content zugrunde?
- Conversions?
- Information?
- Sichtbarkeit und Traffic?
Spart man sich durch KI tatsächlich Zeit?
Ich habe AX Semantics noch nicht getestet, aber allein die Funktionsbeschreibung lässt in mir die Vermutung aufkommen, dass es ungleich umfangreicher ist, die Maschine so zu konfigurieren, damit dann auch ein vernünftiges Ergebnis herauskommt.
Für einen sauber recherchierten und für meine Leser passgenau formulierten Text brauche ich zwischen 1 und 3 Stunden, je nach Thema. Was die richtigen Keywords und eine gute SEO angeht, bin ich auf mein Wissen, manuelle Recherche und Auswertung von Tracking-Daten angewiesen. Auch das kostet Zeit. Das Versprechen von AX Semantics, Texte in Sekundenschnelle auf Knopfdruck zu produzieren, stimmt sicherlich insoweit, dass nach all den Einstellungen und Justierungen dann sicherlich wirklich nur noch ein Knopfdruck benötigt wird, um den Text zu generieren. Aber wie lange brauche ich für die ganze Vorarbeit? Dazu kommen die Kosten, denn die Lösung gibt es nicht für lau.
Und wie ich selber immer wieder merke, sind es eben nicht nur die reinrassigen SEO-Texte, die gut performen, sondern eben auch die Inhaltsseiten, die vielleicht nicht 100% sauber konfiguriert und gebügelt sind, dafür aber ein einzigartiges Erlebnis für den Nutzer bieten. Sei es im Stil, im Inhalt, in der Aufmachung oder im Verständnis.
Ob also mit Hilfe künstlicher Intelligenz automatisiert erstellte Seiten wirklich besser sind als manuell erstellte Inhalte, wird sich noch zeigen. Ich glaube, dass KI dem Redakteur eine unglaubliche Hilfestellung sein kann, weil sie eben die aufwändige Recherche abnimmt und ihm eine Vielzahl an Tipps und Ideen an die Hand gibt. Schreiben wird er aber immer noch selber müssen und genau das macht ja auch den Charme an Webinhalten aus: Ich erkenne im besten Fall hinter dem Text auch den Schreiberling und jeder Text ist einzigartig.