Folge 9: Interview mit Jan König von Jovo

In dieser Folge gibt es ein Interview mit Jan König von Jovo. Die Themen sind unter anderem das Framework von Jovo, ihre Zeit in einem Voice Accelerator in New York und viele weitere Aspekte.

Bleibe auf dem Laufenden zum Thema VoiceDesign

Du kannst diesen Podcast über iTunes, Stitcher oder Soundcloud abonnieren.
Oder trage Dich in den Newsletter ein und ich informiere Dich einmal im Monat über alle neuen Folgen, interessante Texte von anderen Seiten und alles, was sonst noch relevant ist.

Shownotes:

Jan König auf Twitter
Die Webseite von Jovo
Das Open-Source Framework von Jovo auf Github
Die Vorab-Version der Konferenz-Webseite

Automatisiertes Transkript:

[0:10] Hallo und herzlich Willkommen zu einer neuen Folge von One Skill A Day, dem Podcast rund um VoiceDesign.
Mein Name ist Alexander Kamphorst, schön dass Du dabei bist.

[0:22] Ich habe heute einen sehr spannenden Gast zum Interview eingeladen: Jan König ist einer der beiden Gründer von Jovo, geschrieben Jovo. Wir sprechen über sehr viele unterschiedliche Themen. Das Interview ist extrem spannend, hört es euch unbedingt an. Und damit gehen wir auch gleich rein viel, Spaß!

[0:48] Alexander Kamphorst: Hallo und herzlich Willkommen Jan König. Freut mich sehr, dass es geklappt hat .Vielleicht kannst du zu Beginn erstmal ein paar Sätze zu deiner Person sagen wer du bist und so weiter.

[0:57] Jan König: Alles klar. Also mein Name ist Jan König, ich komme aus dem schönen Rheinland Pfalz im Süden von Deutschland. Ich habe in Karlsruhe Wirtschaftsingenieurwesen studiert und bin seit 2 Jahren in Berlin.
Und habe jetzt hier ein Startup namens Jovo gegründet.
Alexander Kamphorst: Ja genau und genau über Jovo würde ich auch gerne heute mit Dir sprechen. Vielleicht gleich mal die Anschlussfrage: Was ist denn genau Jovo und was macht ihr da so?

[1:25] Jan König: Ok. Jovo habe ich mit meinem Mitgründer Alex gegründet und zwar wollen wir Entwicklern und Entwicklerinnen dabei helfen Voice Apps besser und plattformübergreifend zu erstellen. Also anstelle eine App gesondert für Alexa und eine App gesondert für Google, also Google Actions in dem Fall, zu entwickeln, können Leute  mit Jovo eine App erstellen bei sich entwickeln, irgendwo hosten und die auf beiden Plattformen funktioniert.

[1:57] Alexander Kamphorst: Das heißt einfacher Entwicklungsaufwand und doppelte Skill Ausbeute sozusagen.
Jan König: Genau, ja.
Alexander Kamphorst: Das klingt doch sehr fein. Das ist auf Basis von Node.js, habe ich das richtig in Erinnerung?
Jan König: Genau also es ist anstelle des Alexa Skills Kit, das viele benutzen in Node.js, bindet man bei uns dann die Jovo SDK ein und die funktioniert recht ähnlich. Hat aber den Vorteil dass sie dann eben auch mit Google Actions genauso funktioniert.
Alexander Kamphorst: Sehr fein und auf welchem Stand seid da jetzt? Also wann ist der Livegang oder wie funktioniert das bei euch?
Jan König: Also es wird schon von einigen Leuten, auch Agenturen, benutzt jetzt seit 2 Monaten sind wir in der Testphase. Da ist es Open Source und schon verfügbar. Wir launchen aber heute etwas offizieller, also  erster öffentlicher Launch. Ich bin mal gespannt was passiert.
Alexander Kamphorst: Heute? Na so ein Zufall und da bist du gerade hier im Podcast. Das ist doch wunderbar. Das freut mich natürlich umso mehr. Ich habe mir das mal angeschaut und das sieht wirklich sehr spannend aus. Was mich schon noch interessieren würde, ist, du hast ja gesagt, ich bau einmal etwas und dann bekomme ich einen Alexa Skill und eine Google Action dabei raus. Jetzt komm ja nach und nach noch weitere Anbieter in diesem Feld. Also Microsoft Cortana ist ja sozusagen schon auf dem Platz drauf.
Dann spricht Apple davon, dass sie Siri in irgendeiner Art und Weise halt für einen Home Gerät auch zur Verfügung stellen wollen. Habt ihr da noch irgendwelche Vorsätze solche weiteren Plattform zu integrieren oder wie sieht so eure eure Zukunftsvision in der Richtung aus?

[3:37] Jan König: Ja, auf jeden Fall. Also für uns ist das jetzt gerade, mit den Voice Plattformen, das erinnert so ein bisschen an die frühen Smartphone Zeiten, wo es damals auch noch ein total fragmentierter Markt war und man noch nicht wusste, auf welche Plattformen man sich jetzt fokussieren sollte. Deswegen ist es für uns auch wichtig wirklich alle die es jetzt gibt abzudecken. Microsoft Cortana als nächstes, Apple Siri ist so eine Sache weil Apple immer ein bisschen geschlossen ist. Also da müssen wir einfach schauen inwieweit öffnen die sich noch weiter für die Entwickler? Und deswegen da sind wir gespannt. Also es gibt auch Open Source Lösung wie z.b. Mycroft. Es gibt in China jetzt drei Ankündigungen über Voice Assistants und Voice Plattformen, also dort sind wir gespannt wo die Reise noch hin geht. Für uns aber erster Schritt jetzt, Google Assistant und Alexa. Einfach weil da die Nachfrage am höchsten ist. Und man kann ja jetzt auch Cortana über Alexa erreichen. Also da gibt’s ja diesen Workaround bald. Aber dann wollen wir Cortana als nächstes integrieren und dann schauen wir weiter.
Alexander Kamphorst: Auf jeden Fall sehr spannend, kann ich dir nur jedem empfehlen sich das mal anzuschauen. Der Name ist Jovo geschrieben Jovo. Ich verlinke das natürlich wie immer in den Shownotes. Also auf jeden Fall sehr spannend und ich kann mir sehr gut vorstellen dass man da eine wahnsinnig hohe Zeitersparnis haben kann, wenn wie gesagt der doppelte und später vielleicht dreifache oder vierfache Output dann sozusagen vorhanden ist. Also sehr schöne Idee.

[5:10] Jan König: Danke. Also es ist für uns auch wie wie iOS und Android, dass man da, für uns auch wirklich für Nutzer ein Vorteil – nicht nur für die Entwickler. Das ist also, wie oft ist es heute so, dass Leute ewig auf eine Android-Version warten müssen weil die Priorität einfach bei iOS liegt und das sehen wir hier auch gefährlich wenn Leute  sich nur auf Alexa Skills konzentrieren. Weil es doch einige Google Home Nutzer schon gibt und das wird immer mehr werden. Dass man sich da einfach sagen kann: Okay für alle Nutzer ist meine Plattform erreichbar. Und im Idealfall wenn Leute zwei verschiedene Sprachassistenten haben, einen im Auto und einen zu Hause, dass man eben die die Apps dann auch plattformübergreifend auch dann erreichen kann und das sie irgendwo verbunden sind und wissen, dass ist jetzt dieselbe Person die mit mir spricht.
Alxander Kamphorst: Genau das finde ich nämlich auch wirklich sehr spannend, dass man da sozusagen, wie man so schön sagt, so eine Seamless Experience über verschiedene Geräte hinweg schaffen kann, weil es natürlich völlig klar ist, dass ich zwar Alexa zu Hause haben kann aber vielleicht habe ich Google auf meinem Handy oder in meinem Auto drin. Also das glaube ich auch, dass unterschiedliche Anwendungsfälle für unterschiedliche Assistenten quasi gemacht sind, aber unten drunter die Programme oder die Apps, die Skills, die Actions sollten halt immer miteinander kommunizieren können, sodass auch klar ist dass ich sozusagen eine Aktion auch weiter fortführen kann später. Das finde ich schon auch interessant.

[6:44] Jan König: Ja, also das ist auch das was wir als nächstes anstreben, ist eine API, die genau das ermöglicht. Die das für Leute einfacher macht zu entwickeln; diese Seamless Experiences, was du jetzt gesagt hast. Oder auch, komplementäre Experiences, das heißt, ich sag jetzt  „Zeig mir mehr Infos auf meinem Tablet an“, wird da dargestellt, das ist alles gerade noch recht schwierig zu entwickeln, sehr aufwendig aufzusetzen, jeder erfindet Rad gerade neu und da sind jetzt gerade an einer API dran, die diese multimodalen Interfaces oder Erfahrungen besser  entwickeln lässt.
Alexander Kamphorst: Sehr cool .Das kann ich mir sehr gut vorstellen, dass wir das in einer späteren Folge vielleicht auch noch mal wieder herholen wenn ihr da ein wenig weiter seid. Das klingt auf jeden Fall alles super spannend. Lass uns vielleicht kurz über eine andere Sache noch sprechen. Im Vorgespräch hast Du kurz das Betacamp erwähnt. Ich kann das jetzt, glaube ich, gar nicht so richtig gut wiedergeben. Aber ich kann zumindest die Frage stellen und dann kannst du etwas darüber sagen: Was war dieses Betacamp und was habt ihr da gemacht welche Erfahrung habt ihr da so gesammelt?

[7:50] Jan König: Ja also wir haben im Januar diesen Jahres haben wir angefangen uns mit Sprachassistenten zu beschäftigen und genau dieses Seamless Experiences über die wir jetzt gerade eben gesprochen haben, die haben uns ein bisschen gestört, dass es sowas noch nicht gibt. Und haben da eine Idee gebastelt, haben einen kleinen Prototypen gebaut, der sowas einfacher macht. Und haben dann gesehen, dass es Betaworks, das ist ein Investor, eine Investmentfirma, die auch selbst Start-Ups aufbauen, aus New York, dass die ein Programm haben dass sich Voicecamp nennt. Betaworks kann man sich so vorstellen. Die haben drei Säulen. Das erste ist, die haben Start-up Studio. Da bauen sie selbst Firmen auf. Also so bekannte Firmen wie z.b. Giphy oder Instapaper, Dots, ein sehr bekanntes Spiel. Die wurden da wirklich gebaut, die haben Leute eingestellt, die das bauen. Also es sind keine Investments nur von denen, sondern sind wirklich dort im Büro entstanden. Die zweite Säule ist der Seedfund. Da investieren sie in Startups, z.b. Dinge wie ProductHunt, Medium, Tumblr. In solche Firmen haben die investiert. Das ist sehr medienlastig. Und dritte, und das gibt’s seit letztem Jahr, ist das Betacam. Das ist ein Accelerator-Programm, wo sie thematisch sich neue Themen anschauen. Das war im letzten Jahr das Botcamp. Das heißt, da so Sachen wie Facebook Messenger Chatbot, Slack Bot. Da wurden Teams in dem Bereich genommen und jetzt eben VoiceCamp und da waren wir Teil davon. Das heißt es ist ein elf wöchiges Programm.

[9:33] Es sind 8 Teams. Die sitzen zusammen dort im Büro, werden durch Mentoring unterstützt. Das heißt es waren noch Leute von Amazon, von Google, von Microsoft da und dann am Ende, Ende Juni war das, war dann DEMO DAY, wo alle Teams ihre Fortschritte vorgestellt haben. Wir hatten das Glück, dass unser Timing sehr gut war, dass wir im Januar Februar an unserer Idee gebastelt haben und dass die Deadline der 28 Februar war für die Bewerbung. Und da sind wir dann Mitte April los und sind seit Juli wieder in Berlin.
Alexander Kamphorst: Ah, das ist krass. Das heißt 11 Wochen in New York gewesen und an der Idee weiter gebastelt?

Jan König: Genau, ja, und das hat uns wirklich sehr sehr viel geholfen, weil wir sehr viel über den Bereich gelernt haben. Vor allem auch von den anderen Teams, die mit uns da saßen, die schon mehr Erfahrung habe in dem Bereich.
Alexander Kamphorst: Wie würdest du das denn so einschätzen: Es gibt ja immer so diese klassische Frage Amerika, oder sagen wir es genauer: USA versus Germany. Wie weit sind uns die Amis voraus im Bereich Voice?

[10:38] Jan König: Also man merkt schon dass die Firmen dort schon mehr dran arbeiten, dass sie sich mehr überlegen wie könnte man Voice mehr integrieren. Auch Medienmarken. Da passiert hier noch nicht so viel. Auch was Investoren angeht, also wir bei uns ist es so, wir mussten es machen, für den Accelerator mussten wir eine US Firma gründen. Das heißt wir sind auch eine US-Firma und sehen das auch als Vorteil weil eben in Deutschland der Markt noch zu klein ist um da, dass da Investoren, die ja generell ein bisschen risikoaverser sind in Deutschland, da wirklich dran glauben. Und da sind wir aber jetzt auch andererseits recht froh, dass wir da einen Investor, ein Investment durch VoiceCamp bekommen haben. Es hilft uns jetzt auch noch ein bisschen. Zu zweit hier in Berlin reicht es, weil es einfach günstiger ist als in New York. Was wir aber finden, wenn man jetzt aber an so TechHubs wie Silicon Valley denkt, ist, dass
da gar nicht so viel passiert in dem Bereich. Als in New York war das schon mehr. Es gibt auch andere Städte, Washington z.b., wo da schon mehr passiert. Wo viele Leute herkommen, die sich mit dem Thema beschäftigen. Aber da steht Berlin z.b. gar nicht so schlecht da. Also da sind wir wirklich,
da kamen wir zurück und waren recht begeistert, wie viel sich hier eigentlich tut und wir denken dass man das auf jeden Fall noch weiter verfolgen kann und dass da Berlin sehr großes Potenzial hat ebenso ein VoiceHub zu werden. Und das ist auch der Grund, weshalb wir hier in nächstes Jahr in Berlin eine Konferenz zu dem Thema veranstalten wollen.

[12:21] Alexander Kamphorst: Ja, das war ein wunderbarer Übergang: Konferenz zu dem Thema in Berlin. Wenn ich mich richtig erinnere: Voice and Beyond. Ja, was ist denn da geplant?

[12:31] Jan König: Also wir haben festgestellt, dass es sehr sehr viele Einsteiger Workshops gibt zu dem Thema. Also die Evangelisten von Amazon, von Google, die reisen ja überall rum, gehen auf Hackathons. Und was ein bisschen schade ist, ist das so der nächste Schritt, etwas komplexere Skills bauen, da wirds dann schon schwierig. Also da gibt’s dann schon gar nicht soviel in dem Bereich, weil der Fokus schon ist Einsteiger zu bekommen. Was absolut okay ist. Aber für uns, war es wichtig zu sagen: Komm, wir holen mal jetzt Leute, die sich schon länger mit dem Thema beschäftigen, die schon ein bisschen weiter sind,
einfach mal an den Tisch und sagen: Wie könnte man in einem Event, sich da gemeinsam mit dem Thema befassen? Und für uns ist wichtig, bei Voice and Beyond, dass es nicht nur um reines Voice geht sondern eben auch um diese Seamless Experiences. Was passiert wenn ich deinen Podcast zu Hause höre aber dann später auf dem Handy weiter hören will? Muss ich da dann wieder danach suchen oder kann das alles schön übergeben werden an mein Handy z.b.? Diese multimodalen Geschichten wollen wir auf jeden Fall auch weiter beleuchten. Und haben das Thema jetzt ganz frisch auf dem Voice Meetup in Berlin angekündigt und es kam ganz gut an. Und sind da jetzt auf der Suche auch nach Leuten, die uns helfen wollen, die interessiert sind als Speaker aufzutreten und so weiter. Das ist für Frühjahr, April, Mai nächsten Jahres geplant. Ist noch wirklich in den Kinderschuhen. Aber wir sind sehr zuversichtlich da ein cooles Event veranstalten zu können. Mit vielen Leuten, die da interessant sind in dem Bereich.

[14:11] Alexander Kamphorst: Ja das glaube ich auch.Ich finde es bemerkenswert. Ich kann mich noch erinnern, wir sitzen ja beide in der Factory in Berlin und haben am Vormittag noch so ein bisschen drüber gesprochen: Ja, man müsste mal sowas wie eine Konferenz machen und am Abend machst du direkt gleich, hier Hands-on-Mentalität: Leute wir machen jetzt hier ne Konferenz im Frühling. Das ist schon sehr cool. Also das hat mir schon sehr gut gefallen.
Jan König: Ich habe auch ein bisschen Angst. M
an weiß nie wie aufwendig sowas ist. Ich habe schon früher in Karlsruhe, wo ich studiert habe, habe ich viele Meetups veranstaltet. Ich weiß, wie viel Aufwand so ein Event ist. Aber eine Konferenz ist natürlich noch eine ganz andere Nummer. Deswegen würden wir gern, weil wir denken, dass der ganze Voice Bereich. Also wir finde das unglaublich cool, wie die ganzen Leute, die in dem Bereich Voice arbeiten, wie die sich gegenseitig helfen. Da ist gar kein Konkurrenzdenken irgendwo zu sehen. Unser deswegen ist es uns auch wichtig, dass unsere Framework Open Source ist. Haben da schon richtig viel gelernt von Leuten, die da was beigetragen haben. Und so sehen wir das auch bei der Konferenz. Wir wollen da kein reines Jovo Ding machen, sondern am liebsten noch ein paar andere Leute mit dazu holen, die genauso Bock drauf haben, dass man sich da gegenseitig einfach helfen kann, voneinander lernen, einfach ein cooles Ding organisieren.
Alexander Kamphorst: Ja, das finde ich sehr fein. Also ich bin auf jeden Fall mit dabei und deswegen auch mal hier der Aufruf an dieser Stelle wenn ihr irgendwie Lust habt in dem Bereich Voice and Beyond,
an der Konferenz irgendwie mitzuwirken. Wenn ihr glaubt, ihr seid ein guter Speaker oder ihr könnt ihr sonst was beitragen. Geht gerne auf Jan König Zu. Ich glaube, da gibt’s genug Schnittpunkte und genug Möglichkeiten sich irgendwie einzubringen, so dass wir da eine gute Sache hier in Berlin auf die Beine stellen.

[15:45] Ja. Sehr schön. Das war wunderbar spannend. Ich habe immer so eine Abschlussfrage. Die kommt
für dich vielleicht nicht ganz überraschend, weil es gab schon ein Interview und ich weiß, du hast es schon gehört aber trotzdem die Abschlussfrage auch für dich: Und zwar, wenn du dir für Alexa oder auch für den Google Assistant ein Feature wünschen könntest, was wäre das denn so? Also zum Beispiel sowas wie Notifications oder sonst was. Was wäre etwas, wo Du sagen würdest, da sollte Amazon, da sollte Google noch mal so eine Schippe drauflegen?

[16:30] Jan König: Also die sind jetzt sehr technisch getrieben diese Antworten. Also für mich sind bei Alexa zwei Dinge. Also das eine ist ganz simpel: In den Karten, die angezeigt werden, auch Links erlauben.
Also in den Karten, die man an die Alexa App schicken kann. Weil da sind wir wirklich bisher was noch mal coolere Nutzererfahrung angeht, sind wir da ein bisschen an unsere Grenzen gestoßen. Gerade weil das nicht möglich war. Also wir haben auf einem Hackathon letztes Wochenende einen kleinen Onlineshop Skill gebaut. Und dann wird’s da schon schwierig, wenn man dann sagt: Okay ich will jetzt den Online Warenkorb jetzt nochmal als Link irgendwo hinschicken. Das ist aktuell nicht möglich. Da müssen die Leute in die Alexa App gehen, müssen den Link irgendwo abtippen. Und können nicht einfach drauf klicken. Das ist ein bisschen schade. Das ist ein bisschen schade. Google erlaubt es. Was Alexa auch nicht erlaubt ist Spracherkennung. Also wissen wer mit wem sie gerade spricht. Das funktioniert bei Google auch.

[17:53] Also das heißt, wenn wir beide in einem Haushalt wären, würde Google genau wissen wer jetzt spricht und würde dann die Person auch genau mit deren User-ID wirklich erkennen und ansprechen. Was ziemlich cool ist. Und wo Google nicht so toll ist, ist wirklich die schnelle Entwicklung, das schnelle Prototyping. Da muss man viele unnötige Schritte machen. Das ist ein bisschen schade, weshalb wir immer noch so soweit sind, dass wir sagen, wir entwickeln erstmal auf Alexa und machen dann ganz zum Schluss, bringen wir’s auf die Google Plattform. Da muss man zwar nichts mehr umcoden. Muss man aber auch wieder das Sprachmodell dort anlegen auf API.ai und muss noch andere Sachen machen, die ein bisschen umständlich sind. Ich glaube, das war es.
Alexander Kamphorst: Ja, das waren doch ein paar Hausaufgaben für die beiden Unternehmen. Sehr schön, das war super spannend. Da waren jetzt schon so viele Themen drin, ich glaube, das müssen wir beizeiten mal wiederholen. Wenn es in Sachen Konferenz oder i
n Sachen API etwas Neues bei euch gibt. Von daher jetzt schon mal die Voreinladung für irgendwann in den nächsten Monaten und für heute erstmal vielen Dank das war super spannend. Ich glaube, da konnte jeder einiges mitnehmen.

[19:02] Jan König: Hoffentlich. Ich hoffe, es waren nicht zu viele Info, zu viel, also zu lange geredet. Aber ich mag das Thema, ich rede gern drüber. Also vielen Dank, auch für den Podcast. Es macht immer Spaß, ich höre sehr gerne rein. Sehr sehr angenehm und freue mich ein Teil von den Podcast sein zu können und freue mich natürlich auch immer wieder wenn wir da auch mit Konferenzen so weiter zusammenarbeiten könne.
Alexander Kamphorst: Sehr schön. Vielen Dank für dich und bis bald!
Jan König: Bis bald, danke dir!

[19:38] Alexander Kamphorst: Ja, wie versprochen, sehr vollgepacktes Interview mit vielen interessanten Insights.
Ich ziehe nur mal einen Punkt raus um darauf nochmal einzugehen:
Seamless Experiences werden kommen. Die Assistenten beziehungsweise die darunter liegenden Skills oder Logiken werden zwingend miteinander sprechen müssen. Ansonsten habe ich ein Sammelsurium an Devices und Assistenten, die einzelnd genommen einfach zu dumm sind. Man muss es so sagen.
Daraus ergibt sich so ein wenig die Frage, ob die Intelligenz in den Sprachassistenten liegen wird oder ob die Voice Interfaces im Prinzip nur Berührungspunkte oder Nutzeroberflächen sind und die Schlauheit weiterhin in der Hoheit der einzelnen Skill-Anbieter stattfindet.

[20:25] Diese Frage ist für mich noch nicht geklärt und das wird sicherlich noch einige Diskussion geben zwischen Unternehmen und Service-Anbietern auf der einen Seite und Plattform-Anbietern wie Amazon oder Google auf der anderen Seite.

[20:37] Ein guter Ort für so eine Diskussion ist bestimmt auch die angekündigte Konferenz im nächsten Jahr hier in Berlin. Da bin ich gespannt drauf. Ich verlinke in den Shownotes mal die aktuelle Webseite dazu. Hier könnt Ihr Euch eintragen, wenn Ihr auf dem Laufenden bleiben wollt was die Konferenz angeht.

Jovo selber werden ich ebenso verlinken, schaut es Euch gerne einmal an.

Damit kommen wir für heute auch ans Ende der Folge. Wenn es für dich interessant war, dann würde ich mich über eine 5 Sterne Bewertung bei iTunes freuen, damit ich noch viele weitere Interviews führen kann.
Wenn Du Feedback hast, gerne über Twitter oder direkt auf der Webseite www.oneskilladay.de. Dort findest Du auch die angekündigten Shownotes, Links und das Transkript der heutigen Folge.

Ich hoffe, wir hören uns bald wieder.
Bis dahin… auf Wiedersehen!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.