From data to insights: AI secrets for market research professionals

In an era where data is king, the integration of artificial intelligence (AI) into market research is revolutionizing the way we gather and interpret insights. In his recent webinar “From Data to Insights: AI Secrets for Market Research Professionals”,ย Florian Polak, co-founder of Tucan.ai,ย provided a deep dive into the practical applications of AI in market research. This blog post offers a detailed summary of the webinar on martforschung.de, spotlighting the benefits AI solutions can bring to the industry.

"We know how crucial the transparency and reliability of the results provided by our AI is."

Edit Content
Edit Content

KI generierte Zusammenfassung von Tucan.ai

Einfuฬˆhrung und Uฬˆberblick:

– Florian Polak, Geschaฬˆftsfuฬˆhrer von Tucan.ai, fuฬˆhrte durch das Webinar zur Woche der Marktforschung.
– Tucan.ai ist ein junges Unternehmen aus Berlin, spezialisiert auf die Extraktion relevanter Informationen aus Text-, Audio- und Videodateien fuฬˆr Marktforschungszwecke.

KI-Systeme und Anwendungen:
– Es wurde ein Uฬˆberblick uฬˆber KI-Systeme und deren Anwendung in der Marktforschung gegeben, inklusive Tipps und Tricks fuฬˆr den effizienten Einsatz.
– Tucan.ai bietet Produkte an, die es ermoฬˆglichen, KI-Technologien zur Effizienzsteigerung und zur Uฬˆberholung der Konkurrenz einzusetzen.

Probleme und Loฬˆsungen bei KI-Systemen:
– Diskussion uฬˆber gaฬˆngige Probleme bei der Nutzung von KI-Systemen, insbesondere das Phaฬˆnomen der “Halluzination” von KI, ungenaue oder oberflaฬˆchliche Antworten und Datenschutzbedenken.
– Tucan.ai nutzt spezielle Technologien und Ansaฬˆtze, um praฬˆzise und relevante Ergebnisse zu liefern und gleichzeitig Datenschutz und Sicherheit zu gewaฬˆhrleisten.

Anwendungsbereiche und Funktionen:
– Tucan.ai’s Software ermoฬˆglicht die Auswertung von Online-Communities, qualitative Kodierung von Interviews oder Gruppenstudien und quantitative Auswertung von Textdaten.
– Die Software unterstuฬˆtzt verschiedene Datenformate und bietet eine hohe Verarbeitungsgeschwindigkeit und Genauigkeit.

Datenschutz und Sicherheit:
– Tucan.ai garantiert, dass Daten ausschlieรŸlich in Deutschland verarbeitet werden und bietet verschiedene Kooperationsmodelle an, einschlieรŸlich On-Premise-Loฬˆsungen.

Preismodelle:
– Tucan.ai bietet flexible Preismodelle an, die auf Projektbasis oder als jaฬˆhrliche Pauschale gestaltet werden koฬˆnnen, abhaฬˆngig von den Beduฬˆrfnissen des Kunden.

Fragen und Antworten:
– Im Webinar wurden verschiedene Fragen der Teilnehmer beantwortet, unter anderem zur Verarbeitung von Dialekten, der Moฬˆglichkeit, Audiodateien zu testen, und zur Verarbeitung und Analyse von demografischen Daten in Verbindung mit offenen Antworten.

Abschluss:
– Das Webinar endete mit dem Angebot, bei weiteren Fragen Kontakt aufzunehmen und der Ankuฬˆndigung, dass eine Zusammenfassung des Webinars zur Verfuฬˆgung gestellt wird.

Edit Content

KI generiertes Transkript von Tucan.ai

Florian Polak: 00:00:02,950 –> 00:00:41,380
Schรถnen guten Tag. Hallo. Florian Polak ist mein Name hier von Tucan.ai. Willkommen bei unserem Webinar zur Woche der Marktforschung von Tucan.ai. Ich glaube, wir kรถnnen schon anfangen. Ich werde Ihnen ganz kurz nur den Ablauf erklรคren. Ich werde Ihnen einen รœberblick geben zu verschiedenen Themen im Rahmen der CI Forschung. Natรผrlich. ร„hm, wir werden im Anschluss. Ich glaube, ich schรคtze mal, dass ich so 20 30 Minuten maximal brauchen werde. Wenn werden im Anschluss auch eine Fragerunde machen. Haben Sie in der Zwischenzeit Fragen? Bitte schreiben Sie die in unseren Chat einfach hinein und am Schluss, im Anschluss des Webinars, werde ich natรผrlich alle Fragen beantworten, die Sie im Chat gestellt haben.

Florian Polak: 00:00:42,400 –> 00:01:21,640
Wunderbar. Dann wรผrde ich ganz kurz anfangen. Vielleicht ganz kurz zu mir. Florian Polak hier. Ich bin einer der Geschรคftsfรผhrer von Tucan.ai. Mein Job, abgesehen davon Webinare zu halten, ist es mehr oder weniger eigentlich zu รผbersetzen, was unsere technische Abteilung alles macht. Wir sind ein junges Unternehmen aus Berlin, die mittlerweile seit fรผnf Jahren am Markt und haben uns darauf fokussiert, gerade im Bereich Marktforschung relevante Informationen aus einer groรŸen Menge von Text oder auch aus Audio oder Videodateien im Prinzip zu extrahieren. Ich werde Ihnen einen kurzen รœberblick jetzt mal geben. Wunderbar, wir fangen auch schon an, was werde ich in diesem Webinar alles machen?

Florian Polak: 00:01:22,360 –> 00:01:57,730
Ich werde ein bisschen eingehen auf KI Systeme und Begrifflichkeiten da drin in Ihnen versuchen simpel einen รœberblick zu geben. Ohne jetzt zu sehr in die Details hier reinzugehen. Ich werde Ihnen vor allem aber auch ein paar Tipps und Tricks auf den Weg geben, worauf Sie vielleicht beim Arbeiten mit KI auch achten sollten. Und ich werde Ihnen natรผrlich auch zeigen, was wir grundsรคtzlich fรผr Produkte anbieten und wie Sie entweder mit uns oder auch das selber im Prinzip aufbauen kรถnnen, dass Sie KI Technologien bei Ihnen einsetzen und im Prinzip damit natรผrlich sehr, sehr effizient ihre Konkurrenz im Prinzip abhรคngen kรถnnen.

Florian Polak: 00:01:59,660 –> 00:02:29,660
Was ist auf der Agenda? Hier eine kurze Vorstellungsrunde zu uns machen, was wir so machen, was wir grundsรคtzlich anbieten. Ich werde dann vor allem aber auch einen Fokus darauf legen, was fรผr Probleme mit KI Systemen eigentlich sind, sondern was man da eigentlich ein bisschen achten sollte. Ich werde ein bisschen darauf eingehen, wie so grundsรคtzlich der Markt aktuell agiert und was gut daran ist und was vielleicht nicht so gut daran ist. Dann gebe ich Ihnen natรผrlich auch einen รœberblick รผber unsere Software und werde Ihnen auch verraten, im Prinzip, was hinter unserem System steckt, wie wir das Ganze im Prinzip aufgebaut haben.

Florian Polak: 00:02:30,260 –> 00:03:08,210
Um Ihnen einfach nochmal einen รœberblick zu geben, warum unser System in diesem Fall sehr gut geeignet ist fรผr die Marktforschung. Dann natรผrlich zu guter Letzt noch ein kleines Thema รผber das Thema Datenschutz natรผrlich. Und Sicherheit ist sehr wichtig, gerade in der Auswertung von Studien und natรผrlich, was wir grundsรคtzlich fรผr Preispakete haben, damit Sie den รœberblick haben. Zu guter Letzt eine Fragerunde, wo sich alle Ihre Fragen beantworten werde, die Sie in diesem Chat stellen. Dann fangen wir auch schon kurz mal an, wir wรผrden grundsรคtzlich in 2019 gegrรผndet, sind ein Kleinunternehmen aus Berlin, haben mittlerweile 20 Mitarbeiter, ein GroรŸteil davon natรผrlich in der Technikabteilung.

Florian Polak: 00:03:09,050 –> 00:03:51,800
Haben da eigene KI Spezialisten, die sich in den letzten vier, fรผnf Jahren eigentlich damit beschรคftigt haben, solche Algorithmen und aber auch natรผrlich Infrastruktur dafรผr aufzubauen, mit dem Fokus immer mehr einer Analyse von Gesprรคchen, aber auch Texten gut hinbekommen. Wir haben uns fokussiert, Da wir ja als deutsches Unternehmen mit auch sehr รถffentlichen oder sehr groรŸen Unternehmen zusammenarbeiten, haben wir uns darauf fokussiert, eben auf sensible Informationen zu verarbeiten mit dem entsprechenden Sicherheits und Datenschutzstandards, die damit einhergehen, und haben hier aber auch in der Marktforschung mittlerweile auch recht groรŸe Kunden. Was kann man mit unserer Software machen? Ganz grob gesagt sind es drei Bereiche.

Florian Polak: 00:03:52,010 –> 00:04:38,180
Das eine ist im Prinzip Online Communities auswerten, das heiรŸt wirklich Fragen an groรŸe Datenmenge zu stellen. Dann natรผrlich die qualitative Kodierung von Kern, von Interviews oder Gruppenstudien und natรผrlich auch vor allem bei frei Textnennungen, also Textdaten, im Prinzip Excel oder Textdateien quantitativ im Prinzip auszuwerten, wann immer Sie eine Freitagsnennung haben, das mรถglich auf einen einzelnen Code zu verdichten und dann im Prinzip das Ganze auszuwerten. ร„hm, ja, grundsรคtzlich unsere. Wir haben einige Kunden hier in Deutschland mittlerweile die grรถรŸten, die wir haben, ist einerseits die deutsche Bundeswehr, aber auch im Automobilsektor. Recht viel ist mittlerweile mit Porsche und Mercedes Benz und im รถffentlichen Bereich vor allem auch natรผrlich Landtag.

Florian Polak: 00:04:38,180 –> 00:05:18,290
Mecklenburg Vorpommern ist einer unserer grรถรŸten Kunden hier. Grundsรคtzlich die drei Bereiche. Was kann man da genau machen? Im qualitativen Forschungsbereich geht es vor allem darum, Interviews oder Gruppendiskussionen im Prinzip zu einerseits zu transkribieren, da damit haben wir ursprรผnglich mal angefangen haben eigene Spracherkennungsalgorithmen aufgebaut, wie Sie es vielleicht hรถren. Ich bin ร–sterreicher, der auch verschiedene. Im Prinzip Akzente und Dialekte kann unser Algorithmus ganz gut verstehen. Das Ganze wird in Text gebracht und dann geht es darum, im Prinzip anhand eines Leitfadens oder Ihrer Fragen im Prinzip relevante Antworten zu extrahieren und zusammenzufassen und wieder zu verdichten. Das selbe Thema dann auch in der quantitativen Forschung.

Florian Polak: 00:05:18,290 –> 00:05:56,180
Hier geht es vor allem darum, dass man wirklich groรŸe Mengen von Antworten hat, also beispielsweise Kundenservice ist ein klassischer Fall, wo dann sehr, sehr viele Antworten in alle Richtungen natรผrlich gehen, wo man diese Textendungen dann verdichtet, im Prinzip mit einem entweder bestehenden Codeplan oder aber auch die KI tatsรคchlich selber Code Plรคne finden zu lassen. Im Durchschnitt braucht es unser System fรผr so circa 1000 Freitagsnennungen unter zwei Minuten. Das geht also relativ fix. Das Ganze dann natรผrlich die Community so auswerten. Da geht es dann darum, dass wir viele, viele verschiedene Daten haben. Also sie kรถnnen diese Daten entweder bei Excel hochladen oder aber auch per API Schnittstelle mit unserem System.

Florian Polak: 00:05:56,720 –> 00:06:38,450
Und dann kรถnnen Sie Fragen im Prinzip an diese Datenmengen stellen, um dann relevante Ergebnisse im Prinzip zu extrahieren. Mehr dazu ein bisschen spรคter. Verschiedenste Formate funktionieren bei uns Audio Videodateien, Excel wie schon erwรคhnt bzw. Maschinen lesbarer Text kann angeschlossen werden. Das Ganze natรผrlich auch eben als Schnittstelle mit Ihrem System. Wir haben ein paar Garantien, die wir Ihnen geben. Das eine Thema ist Anti Halluzination, da komme ich gleich nachher noch kurz darauf zu sprechen, was das eigentlich ist und wie man das dagegenstellen kann, dass wir im Prinzip ihnen helfen, eigentlich, dass unsere KI die relevanten Ergebnisse aus den Textmengen oder Datenmengen auch extrahiert.

Florian Polak: 00:06:38,900 –> 00:07:17,930
Dann garantieren wir Ihnen auch, dass die Daten ausschlieรŸlich in Deutschland verarbeitet werden. Da gibt es mehrere Varianten zusammenzuarbeiten. Wir haben unsere Server grundsรคtzlich Berner Anbieter namens Hetzner. Das heiรŸt, wenn Sie mit unserer Cloud zusammenarbeiten, wird das ausschlieรŸlich auf diesem Server verarbeitet. Oder wir kรถnnen sogar unser gesamtes System bei Ihnen auf dem Server installieren. Haben wir bei sehr groรŸen Kunden schon auch gemacht. Einfach damit die Daten ihr System einfach gar nicht mehr verlassen. Dann natรผrlich, dass die Daten von unseren Kunden ausschlieรŸlich ihnen zur Verfรผgung stellen. Also sowohl die Extrakte im Prinzip, die Sie mit unserer Query rausbekommen, als natรผrlich die Daten, die Sie bei uns hochladen.

Florian Polak: 00:07:18,170 –> 00:07:58,670
Wir nutzen Ihre Daten nicht zu Trainingszwecken, auรŸer natรผrlich, das ist gewรผnscht. Also wir kรถnnen auch im Prinzip speziell fรผr Ihren Fall dann natรผrlich auch ein eigenes Datentraining durchfรผhren. Und last but not least, wenn Sie sehr, sehr groรŸe Datenmengen haben Sie haben bei uns keine Begrenzung an hochgeladenen Daten, das heiรŸt, Sie kรถnnen da wirklich rein jagen, was auch immer Sie da drinnen haben, weil und kriegen trotzdem ein sehr performantes Ergebnis, werde ich nachher kurz noch mal ein bisschen was dazu sagen, dass Sie auch bei groรŸen Datenmengen tatsรคchlich relevante Ergebnisse sehr prรคzise rausbekommen. Gut, dann steige ich auch schon ein mit Problemen grundsรคtzlich bei Studie Auswertung von Studien mittels KI.

Florian Polak: 00:07:59,570 –> 00:08:39,169
Das Hauptthema ist das Thema Halluzination. Also im Prinzip wirklich, dass die KI Ergebnisse bringt, die eigentlich nicht relevant sind. Um auf die Frage, die sie gestellt haben wir Es gibt da verschiedene Mechanismen, die man entgegenwirken kann. Ich werde nachher kurz ein bisschen was dazu sagen, was das eigentlich ist oder was รผblicherweise die. Die Grรผnde dafรผr sind dann ein sehr, sehr wichtiges Ergebnis. Ich weiรŸ nicht. Ich nehme mal an, dass viele von Ihnen schon mittlerweile mit Start up oder รคhnlichen KI Systemen gearbeitet haben. Grundsรคtzlich gibt es geht es ja auch teilweise jetzt schon ganz gut. Allerdings sind im Regelfall gerade bei groรŸen Datenmengen die Ergebnisse relativ ungenau oder unprรคzise und eher oberflรคchlich.

Florian Polak: 00:08:39,590 –> 00:09:19,370
Dafรผr gibt es ganz gute Grรผnde, zu denen ich auch gleich noch ein bisschen was sagen werde. 121 anderes Thema natรผrlich. Je nachdem, in welchem Anbieter sie arbeiten, werden Daten teilweise zu Trainingszwecken weiterverwendet, weil die Systeme erst im Prinzip im Aufbau sind oder sich stรคndig weiterentwickeln. Oder die Daten werden natรผrlich in Anbieter an die USA weiter รผbermittelt. Als Beispiel wรคre da zB IT zu nennen und beispielsweise das ist natรผrlich ein groรŸes Risiko, weil ihre sensiblen internen Daten dann eventuell in zukรผnftigen Modellen im Prinzip als Antwort auch rauskommen kรถnnen, was natรผrlich nicht in ihrem Interesse ist. Und sie haben sich auch schon ein bisschen was darรผber gehรถrt รผber das Thema Tokens.

Florian Polak: 00:09:19,880 –> 00:10:22,610
Und grundsรคtzlich trugen sie es in der Art und Weise, wie an solche Komodelle im Regelfall abrechnen oder bzw. wie. Wie viele Informationen auf einmal verarbeitet werden kรถnnen. Das Man kann sich unter einem Token ungefรคhr ein Wort vorstellen, Das heiรŸt, wie viele Wรถrter kรถnnen von der KI gelesen werden? Da gibt es Limitierungen. Grundsรคtzlich. Zwar werden diese Kontextwindows im Prinzip also die Art, die Anzahl an Wรถrtern, die sie einspielen kรถnnen, zwar immer grรถรŸer, trotzdem haben sie da immer noch eine Limitierung, die natรผrlich nicht gewรผnscht ist. Wenn man groรŸe Datenmengen also von einer ganzen Studie beispielsweise auswerten mรถchte. Und eines der wichtigsten Themen fรผr uns ist im Prinzip Nicht nur die tatsรคchlichen Ergebnisse der KI sollten angezeigt werden, sondern auch tatsรคchlich die Originalzitate, also die Originaltext stellen aus den Studien, die nรคmlich auch relevant sind, um vor allem den Kontext besser zu verstehen, aber auch natรผrlich, um zu รผberprรผfen, ob die Antwort der KI tatsรคchlich richtig ist oder ob es sich beispielsweise um eine Halluzination handelt.

Florian Polak: 00:10:22,820 –> 00:11:03,950
Das sind so die wichtigsten Themen eigentlich in diesem Bereich. Ich werde mal kurz erzรคhlen, grundsรคtzlich, was fรผr Technologie sich hinter TTP versteckt. Es handelt sich um etwas, das nennt sich Large Language Model. Es sind verschiedene Arten von Modellen, aber im Prinzip basiert eigentlich alles auf dieselbe Art und Weise. Ist im Prinzip ein Modell, das gemacht wurde, um Sรคtze zu vervollstรคndigen, basierend auf Wahrscheinlichkeit, das heiรŸt, basierend auf dem Kontext, den Sie als Frage stellen, und dem Kontext, den Sie beispielsweise als Studie in das System hineinspielen. Versucht die ZBD beispielsweise die, den Satz zu vervollstรคndigen, so dass er mรถglichst akkurat ist.

Florian Polak: 00:11:06,110 –> 00:11:45,920
Man muss sich darunter vorstellen Diese ganzen groรŸen Land Language Modellen wurden mit Milliarden und Milliarden von Daten im Prinzip gefรผttert. Das heiรŸt, sie haben Milliarden von Daten im Prinzip gesehen und Sรคtze gelesen und kรถnnen dann aufgrund dieser Trainingsdaten im Prinzip Sรคtze vervollstรคndigen. Das ist im Wesentlichen eigentlich, was die Technologie hinter JPC ist. Das bedeutet natรผrlich, dass diese Systeme manchmal ist die wahrscheinlichste Antwort die korrekte. Das muss aber nicht immer der Fall sein. Das kann auch passieren, dass das System irgendwo abbiegt, die Frage zum Beispiel falsch versteht oder auch den falschen Kontext hat, um die Antwort im Prinzip zu generieren.

Florian Polak: 00:11:46,100 –> 00:12:25,880
Und dann passiert etwas, was im Umgangssprachlichen mittlerweile Halluzinieren genannt wird. Das ist im Prinzip ein Sammelbegriff fรผr viele verschiedene Probleme. Das ist im Regelfall der Hauptgrund ist darauf, dass die KI im Prinzip. Auf die falschen Daten zurรผckgreift und dann im Prinzip die falschen Informationen liefert, um die Frage zu beantworten. Aus Nutzerperspektive ist es natรผrlich Sie stellen eine Frage, wollen eine Antwort haben und das System liefert Ihnen eine vรถllig falsche Antwort, was objektiv falsch ist und im Prinzip dann unter Halluzinieren zusammengefasst wird. Letztes Thema, was auch sehr, sehr wichtig ist, Wo ich gerade vorhin erwรคhnt habe, diese Kontextwindows oder auf deutsches Kontextfenster.

Florian Polak: 00:12:25,910 –> 00:13:01,730
Das ist im Prinzip schon ein bisschen ein Markttrends von den groรŸen, laut Language Modellen sehr groรŸen KIs, die im Moment am Markt sind. Die Idee der ganzen Sache ist, mรถglichst viele Daten auf einmal in das System einspielen zu kรถnnen, um dadurch einen besseren Kontext fรผr die KI zu generieren. Dadurch, dass das somit die Fragen dann besser beantwortet werden kรถnnen. Die grรถรŸten Modelle, die aktuell am Markt sind, sind meines Wissens nach das von Google, wo fast 1 Million solcher Tokens im Prinzip auch gleichzeitig verarbeitet werden kรถnnen. Sie kรถnnen da ein ganzes Buch reinschmeiรŸen und dann im Prinzip Fragen an dieses Buch stellen.

Florian Polak: 00:13:02,720 –> 00:13:36,980
Problem bei der ganzen Sache ist, dass erstens mal ist es ein recht ineffiziente System, weil jedes Mal, wenn Sie eine Frage stellen an diese Daten, muss das gesamte Buch neu analysiert werden, was eine sehr ineffiziente Art und Weise ist. Und zwar sind diese Modelle zwar mittlerweile immer billiger, aber sie haben immer noch das Problem, dass wenn sie sehr, sehr viele Fragen stellen wollen, was bei Studien hรคufig vorkommt, dass ihnen dann ziemlich viel Kosten entstehen kรถnnen. Und das zweite ist, was wahrscheinlich noch viel wichtiger ist Nur weil Sie einen grรถรŸeren Kontext haben, heiรŸt das nicht, dass die Antwort besser wird.

Florian Polak: 00:13:37,640 –> 00:14:14,030
Unbedingt. Zwar wird das System einen grรถรŸeren Kontext haben und wird besser verstehen, um was es hier eigentlich geht. Also was hier die Studie zum Beispiel ist, heiรŸt aber nicht, dass es eine prรคzise Antwort geben wird. Da komme ich ja schon zum nรคchsten Punkt. Warum sind denn solche KI Antworten manchmal so oberflรคchlich? Hintergrund der ganzen Sache ist, dass diese KIs im Prinzip darauf trainiert sind, mรถglichst natรผrlich richtige Aussagen zu treffen und keine falschen Antworten zu liefern. Eine Methode, um so was zu machen, ist im Prinzip den Kontext, die Kontextfenster zu erhรถhen und mehr Daten reinzuspielen, um mehr Informationen zu zu liefern.

Florian Polak: 00:14:14,540 –> 00:14:58,820
Das Problem mit der ganzen Sache ist, dass das System darauf trainiert ist, bloรŸ keine Fehler zu machen und bloรŸ keine falschen Antworten zu liefern. Und aus diesem Grund im Prinzip versucht, eine Antwort zu generieren, die mรถglichst allgemeingรผltig ist und ja nicht falsch ist und in dem Kontext eben richtig ist oder und und und lieber eine oberflรคchliche Antwort gibt, als dass es einen tatsรคchlichen Fehler macht. Und das ist im Prinzip auch der Grund, warum dann im Prinzip seine Antwort relativ oberflรคchlich und ja allgemeingรผltig, aber vielleicht nicht besonders hilfreich fรผr eine Studie ist. Was zur Folge hat das, dass diese Systeme tatsรคchlich in manchen Studien einfach gar nicht richtig oder gut eingesetzt werden kรถnnen.

Florian Polak: 00:14:59,900 –> 00:15:41,120
Das ist so das Hauptthema. Das heiรŸt, man muss sich ein bisschen bei diesen gรคngigen KI Systemen รผberlegen. Geht man das Risiko ein, dass das Ding halluziniert oder mรถchte man lieber oberflรคchliche Antworten haben? Und das ist im Prinzip das Hauptthema, was gerade am Markt mit diesen KI Modellen das problematisch ist. Wir gehen ein bisschen in eine andere Richtung und wir haben. Grundsรคtzlich werde ich ein bisschen erzรคhlen, wie wir die Infrastruktur hinten aufgebaut haben, um genau diese beiden Probleme nicht zu haben, sondern um wirklich sehr, sehr tief reinzugehen, sehr, sehr prรคzise Antworten zu generieren, auch bei sehr groรŸen Datenmengen, ohne das Problem zu haben, dass wir auf der anderen Seite Halluzinierung Stimmen haben oder die Antworten einfach sehr generisch sind.

Florian Polak: 00:15:42,980 –> 00:16:30,260
Im Prinzip Was macht unsere KI eigentlich oder was macht das System dahinter? Wir haben einen Text hier im Beispiel ist es jetzt ein Transkript. Wir haben zum Beispiel einen Audiofall von Ihnen bekommen. Das wurde von uns transkribiert. Das heiรŸt, wir haben ein Wortprotokoll des Interviews und jetzt geht unser System รผber diesen Text und bricht diesen Text auf in Themenblรถcke. Das heiรŸt, es nennt sich im Fachsprache nennt sich das Ganze Junking, Das heiรŸt im Prinzip wir wir. Ein System geht รผber diesen Text und schaut sich an, wo beginnt ein Thema und wo hรถrt es wieder auf und generiert dann ebensolche solche Inhaltsblรถcke und bricht diesen langen Text, der ja auch bei einer Stunde Interview mehrere 20 30 Seiten lang sein kann, in kleine Blรถcke auf, die dann wiederum abgelegt werden in einem eigenen Datenbanksystem.

Florian Polak: 00:16:30,260 –> 00:17:12,619
Das Datenbanksystem nennt sich Vektor Datenbank. Es ist im Prinzip ein Datenbanksystem, das gut geeignet ist, Inhalte miteinander zu vergleichen. Das heiรŸt, man kann sich vorstellen, ein ganzes Interview wird aufgebrochen. Man hat dann beispielsweise 1000 solche Themenblรถcke und diese Themenblรถcke werden dann auf dieser Datenbank als Graphen, also in einen mathematischen Wert umgewandelt und auf diese Datenbank abgelegt. Wenn Sie jetzt eine Frage haben und beispielsweise wissen wollen okay, fanden die Teilnehmer. Immer den Kunden Service gut und das System wird diese Frage wiederum analysieren. Um was geht es hier in Aufbrechen in so einen Themenblock und diesen Themenblock ebenfalls auf diese Vektordatenbank ablegen.

Florian Polak: 00:17:13,700 –> 00:17:56,060
Jetzt hat man diese zwei Themenblรถcke und das System ist ganz gut geeignet zu vergleichen, Wie nah sind die aneinander dran? Das heiรŸt, das System sucht dann auf Ihre Antwort alle relevanten Stellen in diesem Transkript raus, die geeignet sind, um Ihre Frage zu beantworten. Und diese Textblรถcke werden dann genommen, werden dann eben so eine KI weitergegeben, die nicht mehr das ganze Transkript liest, sondern ausschlieรŸlich diese Themenblรถcke. Daraus dann im Prinzip eine Antwort generiert und ihre Frage beantwortet hat zwei Vorteile Nummer eins Wir, die grundsรคtzlich. Die Antwort ist sehr, sehr prรคzise, weil sie im Prinzip wirklich ausschlieรŸlich den Text liest, der relevant ist, um Ihre Frage zu beantworten.

Florian Polak: 00:17:56,720 –> 00:18:30,620
Und das Zweite ist Wir kรถnnen eine Rรผckverfolgbarkeit von Informationen garantieren. Das heiรŸt, wir zeigen Ihnen grundsรคtzlich nicht nur einfach nur die Antwort der KI an, sondern wir zeigen Ihnen auch alle Textblรถcke an, die relevant waren, um diese Frage zu beantworten. Und auf einmal kรถnnen wir eine Rรผckverfolgbarkeit garantieren, was zur Folge hat, dass wir nicht nur Ihre Frage beantworten kรถnnen, sondern sie das Ganze auch einfach รผberprรผfen kรถnnen. Das ist im Prinzip unser System und wir haben jetzt verschiedene Anwendungsfelder, wo wir das im Prinzip einsetzen. Erstes Thema ist beispielsweise bei diesem Kodieren von offenen Antworten in quantitativen Studien.

Florian Polak: 00:18:30,740 –> 00:19:15,890
Also beispielsweise Sie haben 1000 Antworten von Teilnehmern einer Onlinestudie, die im Prinzip einfach Informationen geben, was Sie zu dem Kundenservice gesagt haben. Jeder dieser Aussagen wird im Prinzip jetzt wiederum selbes Prinzip aufgebrochen in diese Themenblรถcke. Manchmal ist so eine Antwort ja durchaus sehr, sehr lange. Dann sind es dann mehrere Themenblรถcke, die werden wiederum abgelegt und die Codes, die im Prinzip genutzt werden, um das Ganze zu verdichten, werden ebenfalls als Themenblรถcke abgelegt. Und dann wird eigentlich nur noch miteinander verglichen Was passt gut, welche Codes passen gut zu dieser Aussage? Und so kann man diese Ergebnisse relativ schnell verdichten, ohne die Gefahr zu gehen, dass die Ergebnisse falsch zugeordnet werden.

Florian Polak: 00:19:17,390 –> 00:19:58,070
Natรผrlich kann man da relativ lange Studien einfรผgen. Also die grรถรŸten, die wir jetzt mittlerweile haben, waren glaube ich 20.000 Textnennungen, die dann im Prinzip dort nur System durch gejagt wurden. Verschiedene Datenformate unterstรผtzen wir. Klassisch sind natรผrlich Excel oder SS, da dann das ganze Thema wird einfach einmal durch codiert. Das dauert im Durchschnitt fรผr so 1000 Nennungen zirka zwei Minuten. Man kann sich die Ergebnisse natรผrlich wieder anschauen, kann eventuell auch nachbessern, wenn man das mรถchte, also einen anderen Code zum Beispiel verwenden. Oder man kann sogar dem System sagen, hier sind alle Nennungen, finden wir einen guten Code bei, nachdem ich das Ganze verdichten kann drรผben.

Florian Polak: 00:19:58,520 –> 00:20:45,780
Und das Ganze im Prinzip dann durch Codieren lassen. Und die Formate kรถnnen dann wieder als Excel oder SSDatei wieder exportiert werden. Das nรคchste Thema ist eher in der qualitativen Forschung. Hmmm. In der qualitativen Forschung geht es mir darum, Interviews oder Gruppendiskussionen tatsรคchlich zuerst einmal in Text zu transkribieren. Da haben wir Verschiedenes, verschiedenste Spracherkennungsalgorithmen fรผr die verschiedenen Sprachen. Im Regelfall kรถnnen wir alle romanischen Sprachen gut abdecken. Wir kรถnnen vor allem im Deutschen, wo unser Fokus liegt, auch die verschiedenen Dialekte und Akzente auch ganz gut im Prinzip kennen. Je nach Aufnahmebedingungen schaffen wir da im Durchschnitt circa 95 % Genauigkeit.

Florian Polak: 00:20:45,780 –> 00:21:34,050
Das entspricht einer geschulten Transkriptionspersonen, die im Prinzip daneben sitzt und jedes Wort mitprotokolliert. Dann haben Sie mal den. Das Wortprotokoll, also im Prinzip das Transkript des Interviews oder der Gruppendiskussion. Und wenn es sich um eine Gruppendiskussion handelt, kann zum Beispiel dann automatisch auch das Gesprรคch nach Sprechern aufgebrochen werden. Das heiรŸt, wenn Sie beispielsweise fรผnf Leute zu einem Thema befragen, wird dann schon aufgebrochen nach Sprecher, ein Sprecher, zwei Sprecher, drei Sprecher vier und fรผnf natรผrlich. Und sie kรถnnen nachher dann wiederum, weil das System das Ganze dann aufbricht, wiederum sich aussuchen. Okay, mรถchte ich eine Analyse รผber alle Teilnehmer machen oder mรถchte ich wirklich tatsรคchlich einfach fรผr jeden Sprecher relevante Informationen rausziehen?

Florian Polak: 00:21:35,250 –> 00:22:16,650
Und das System gibt Ihnen dann im Prinzip die Antworten auf Ihre Fragen. Das kann zum Beispiel der Leitfaden sein, den Sie hinterlegen oder auch Ihre Research fragen, um spezifisch nach bestimmten Informationen zu suchen. Das Spannende der Sache ist Sie kรถnnen ein Interview hochladen und das analysieren. Oder Sie kรถnnen ein ganzes Studio hochladen, um viele verschiedene Informationen aus den beispielsweise zehn Interviews rauszuziehen, um dann gemeinschaftlich einfach sich ein Bild zu machen รผber diese verschiedenen qualitativen Studien, die Sie da durchgefรผhrt haben. Und der letzte Punkt ist wirklich tatsรคchlich, dass wir unser neuestes Modul eigentlich, dass wir tatsรคchlich groรŸe Mengen an Daten im Prinzip anbinden kรถnnen.

Florian Polak: 00:22:16,650 –> 00:23:03,240
Ein klassisches Beispiel wรคren zum Beispiel Social Media Kanรคle, die Sie per API Schnittstelle zum Beispiel anschlieรŸen kรถnnen, um dagegen dann Fragen zu stellen. Sprich da werden Datenpunkte im Prinzip von Ihnen in unser System eingespielt, maschinenlesbar. Der Text muss das Ganze sein und dann kรถnnen Sie tatsรคchlich Ihre Fragen gegen diese Datensรคtze stellen. Das kรถnnen Exceldateien sein, das kรถnnen Textdateien sein, รผber eine API zum Beispiel. Das kรถnnen aber auch Transkripte von Interviews natรผrlich sein, um dann wirklich eine gesamt einheitliche Auswertung รผber diesen diese ganze Studie zu machen. Wunderbar geeignet natรผrlich fรผr andere Communities, wo es grundsรคtzlich relativ viele Daten gibt, wo auch รผber mehrere Tage oder Wochen hinaus gewisse Informationen gesammelt werden von Usern, um dann wirklich so eine Auswertung tatsรคchlich zu machen.

Florian Polak: 00:23:03,870 –> 00:23:55,080
Das System zeigt ihnen dann immer die Antwort an, aber auch die Referenzen wirklich von den jeweiligen Textblรถcken wiederum woher die Informationen eigentlich kommen, sodass sie dann leicht eine Mรถglichkeit haben, das Ganze zu รผberprรผfen. Genau. Als Epischnittstelle kรถnnen Sie das natรผrlich anschlieรŸen. ร„hm, grundsรคtzlich wie funktioniert unser System? Gibt grundsรคtzlich mal zwei Mรถglichkeiten, wieder zusammenzuarbeiten. Wir kรถnnen das Ganze bei Ihnen auf dem Server installieren. Das wรคre dann so eine On Premise Installation. Das heiรŸt, dann wird das Ganze wirklich auf Ihren Server betrieben. Keine Daten verlassen Ihr Unternehmensnetzwerk. Der einzige Nachteil, den Sie da haben, abgesehen davon, dass es ein bisschen umstรคndlich ist, ist, dass Sie da relativ starke Server brauchen, inklusive solche Grafikkarten, also GPUs genannt, die geeignet sind, im Prinzip, um diese Systeme sehr performant laufen zu lassen.

Florian Polak: 00:23:55,470 –> 00:24:39,750
Oder sie entschlieรŸen sich, das Ganze auch mit uns zusammenzuarbeiten in der Cloud. Da garantieren wir Ihnen wie gesagt, dass die Daten ausschlieรŸlich in Deutschland verarbeitet werden. Das ist dann im Prinzip auf unserem Server, der in Nรผrnberg steht. Serveranbieter ist ein deutsches Unternehmen namens Hetzner und wo im Prinzip dann die Daten analysieren zu lassen. ร„hm, grundsรคtzlich natรผrlich sind diese Systeme hinreichend gesichert, sprich wir verarbeiten ihre Daten auch wirklich nur so, wie sie das Ganze von uns wรผnschen. Gibt da verschiedene Mรถglichkeiten, wie wir zusammenarbeiten kรถnnen. Man kann auch eigene Datentrainings fรผr sie machen, wenn sie das wรผnschen. Und es gibt natรผrlich auch die Mรถglichkeit in anderen EU Lรคndern beispielsweise einen Cloudserver aufzubauen, was wir grundsรคtzlich auch schon in der Vergangenheit gemacht haben.

Florian Polak: 00:24:41,390 –> 00:25:18,530
Zu den Preisen gibt es zwei verschiedene Art und Weise, mit uns zusammenzuarbeiten. Das eine Thema wรคre wirklich so einer on demand. Das heiรŸt wirklich, Sie haben ein Projekt, Sie kommen auf uns zu und sagen, wir wollen jetzt dieses Projekt mit ihnen durchfรผhren. Wir machen ein Angebot und rechnen dann nach der Studie im Prinzip ab. Da rechnen wir grundsรคtzlich immer nach Datensรคtzen ab, also im Prinzip, wenn es sich um qualitative Interviews handelt. Das rechnen wir meistens รผber Audiostunden ab. Wenn es sich um Excel Dateien handelt, die abgerechnet werden mรผssen, haben Sie, zahlen Sie einen Cent pro Betrag fรผr eine Pro Excel Zelle, also pro Nennung des Befragten und rechnen das Ganze vรถllig flexibel ab.

Florian Polak: 00:25:18,530 –> 00:25:54,140
Keine Bindung, oder? Wir haben auch natรผrlich das Corporate Offer. Das machen wir bei grรถรŸeren Kunden mit uns, dass sie einen jรคhrlichen Fixpreis haben, dann haben sie keine Mengeneinschrรคnkung, kรถnnen das Ganze mit uns machen nach Lust und Laune und kรถnnen auch bauen das Ganze fรผr sie im Prinzip dadrauf. Das kann natรผrlich auch alles kombiniert werden. Das heiรŸt, es gibt natรผrlich auch die Mรถglichkeit, dass man zum Beispiel eine qualitative Studie durchfรผhrt, die Ergebnisse dann verdichtet. Im Prinzip. Beispielsweise im Quantenmodul, dass man dann wirklich das Ganze auf wirkliche Wortnennungen verdichtet und das Ganze kodiert, um dann eine sehr, sehr gute Auswertung zu kriegen.

Florian Polak: 00:25:54,140 –> 00:26:31,070
Und um sich einen Report im Prinzip schnell herzurichten. Das wรคre auch schon alles von meinem Webinar. Jetzt wรผrde ich ganz kurz auf die Fragen eingehen, die Sie grundsรคtzlich hier im Chat gestellt haben. So gibt es die Mรถglichkeit, Audiodateien zu testen zu lassen. Starke Dialekt aus ร–sterreich zum Beispiel. Ja, grundsรคtzlich. Sie kรถnnen das bei uns auch immer alles testen. Das heiรŸt da einfach uns gerne unverbindlich einfach schreiben. Wir bieten natรผrlich immer die Mรถglichkeit an, das Ganze auszuprobieren, sei das jetzt eben bei Audiodateien mit Akzenten zum Beispiel, aber auch natรผrlich bei Excel Studien, dass Sie das mal ausprobieren kรถnnen und sich von der Qualitรคt รผberzeugen.

Florian Polak: 00:26:31,880 –> 00:27:11,870
Bei den Akzenten Grundsรคtzlich gilt je in ร–sterreich vor allem je weiter รถstlich, desto leichter, je weiter westlich, desto schwieriger. Schweizer Akzente und Dialekte sind tatsรคchlich ein bisschen problematisch, weil es keine keine einheitliche Art gibt, wie man Schweizerdeutsch schreibt. Deswegen gibt es auch wenig Mรถglichkeiten, da leicht einen Spracherkennungsalgorithmus aufzubauen. Wir haben aber schon die verschiedensten Projekte auch in ร–sterreich gemacht. Sprich einfach kontaktieren und einfach ausprobieren, wรผrde ich vorschlagen. Dann die nรคchste Frage war dann auch noch Kรถnnen auch Transkripte von Face to Face Gruppendiskussionen mit Zuordnung der sprechenden Person gemacht werden oder nur von anderen Gruppen? Face to face geht auch.

Florian Polak: 00:27:11,870 –> 00:27:53,330
Wir brauchen grundsรคtzlich eine Aufnahme in einer Art oder oder der anderen. Also beispielsweise, wenn Sie wirklich eine Face to Face Studie haben und das Ganze aufnehmen, kรถnnen Sie nachher die Audiodateien nehmen, hochspielen und das Ganze dann im Prinzip transkribieren lassen. Wir wir machen das nicht รผber die verschiedenen Kanรคle, also beispielsweise bei einem Online Meetings รผber Teams gibt es ja die verschiedenen Sprecherkanรคle und im Regelfall hat man bei der Transkription dann so eine Aufteilung nach den verschiedenen Kanรคlen. Wir machen das Ganze รผber eine eigene Sprechererkennung, das heiรŸt, wir haben da einen eigenen Algorithmus drinnen, der die Unterschiede in den Stimmlagen erkennt und das Gesprรคch danach im Prinzip auf aufbricht, quasi.

Florian Polak: 00:27:54,260 –> 00:28:28,400
Bedeutet aber natรผrlich auch, dass das wir nicht wissen, dass ich zum Beispiel der Florian Pollack bin, sondern wir wissen eigentlich dann auch nur okay. Es gab fรผnf Sprecher in diesem Gesprรคch und folgender Sprechereinsatz folgende Sachen gesagt natรผrlich, wenn man nachher die Informationen wieder braucht, um eine Analyse zu fahren, beispielsweise, dass man die Analyse machen mรถchte, รผber was die weiblichen Teilnehmer der Studie gesagt haben, dann kann man diese Referenzen wieder einfรผgen. Das mรผsste dann manuell im Nachhinein gemacht werden von Ihnen, geht aber recht schnell, um dann nachher im Prinzip in der Auswertung auf der Ebene auch noch machen zu kรถnnen.

Florian Polak: 00:28:29,840 –> 00:29:11,360
Haben Sie auch Familien mit Schweizer deutschen Dialekten? Ja, haben wir. Schweizerdeutsche Dialekte sind leider etwas schwierig, muss ich noch dazu sagen. Wir haben mittlerweile ein neues Modell, das glaub ich nรคchste Woche rauskommt, das tatsรคchlich fรผr Schweizerdeutsch Ergebnisse bringt, die, sagen wir mal deutlich besser sind als das, was sie bisher am Markt kennen. Wir mรผssten dann allerdings auch ausprobieren, wie die wie die Qualitรคt wirklich ist, weil das eben ein sehr, sehr neues Modell ist. Grundsรคtzlich ist das ein bisschen schwieriger natรผrlich als รถsterreichisch oder oder deutsch Deutsch mit den verschiedenen Dialekten und Akzenten dort. Und dann kann man von Ihnen anonymisierte, pseudonymisierte Beispiele fรผr eine Textauswertung erhalten, um ein Gefรผhl fรผr die Ergebnistypen zu bekommen.

Florian Polak: 00:29:11,360 –> 00:29:52,440
Ja, kรถnnen Sie, wenn Sie grundsรคtzlich mit uns machen. Meistens dann so eine Demo. Da haben wir auch eine Demostudie drinnen, wo Sie das Ganze sich einmal anschauen kรถnnen und durchaus dann im Prinzip das Ganze auch verwenden kรถnnen, um selber sich zu รผberprรผfen, ob das System passt oder nicht. Dann kann die ja vorher die Webseite oder Dokumente crawlen und Spezialbegriffe Spezialabkรผrzungen zu identifizieren. Wir haben viele Fachbegriffe, die auch von Kunden verwendet werden. Grundsรคtzlich. Das Thema Spezialbegriffe ist immer wieder relevant. Fรผr qualitative Studien ist es insbesondere dann relevant, weil die Spracherkennung basiert nรคmlich auch auf dem รผblichen Sprachgebrauch.

Florian Polak: 00:29:52,860 –> 00:30:42,570
Wenn es dann Spezialbegriffe gibt, Eigennamen, Firmennamen beispielsweise. Sowas kann im Regelfall sehr, sehr einfach im Prinzip hochgeladen werden, in dem sie eigentlich ein Level hochladen, Ob wir es von der Webseite crawlen. Grundsรคtzlich einen Service. Wir haben theoretisch Crawler mit so was zu machen. Effizienter wรคre es wahrscheinlich, wenn wir einfach im Prinzip sie uns die Webseite sagen. Wir schauen uns das Ganze fรผr Sie an, erstellen wir eine Excelliste an diesen Fachbegriffen und laden die einmal hoch. Das dauert im Regelfall zwei drei Minuten, ist recht schnell gemacht und dann werden die Begriffe auch richtig erkannt. รœblicherweise, wenn es sich um Webbegriffe handelt, die auf Webseiten sind, macht es in der Textauswertung gar nicht mal so groรŸ eine Rolle, weil die KI Systeme im Regelfall mit sehr, sehr groรŸen Datenmengen gefรผttert wurden, sodass auch Spezialbegriffe dann auch richtig erkannt werden.

Florian Polak: 00:30:42,570 –> 00:31:26,060
Also ein Kontext passt dann im Regelfall ganz gut. Insofern sollte das damit auch eher kein Problem sein. Und welche Sprachen kรถnnen Sie abbilden? Alle europรคischen und auch nichteuropรคischen Sprachen. Grundsรคtzlich also was auf jeden Fall sehr, sehr gut funktioniert, sind die romanischen Sprachen, also Deutsch, Englisch, Franzรถsisch, Spanisch, Italienisch. Wir hatten dann aber auch Niederlรคndisch, Dรคnisch, die auch gut funktioniert haben. Im Englischen natรผrlich die verschiedenen Sprachgruppen, die wir haben. Also wir hatten tatsรคchlich auch eine Studie, die mit singapurianischen Akzenten waren, wo ich in der Spracherkennung, also ich persรถnlich hรคtte weniger verstanden als unsere KI da tatsรคchlich. Also da gibt es auch die verschiedensten Mรถglichkeiten.

Florian Polak: 00:31:26,070 –> 00:31:56,130
Wir haben aber auch die Mรถglichkeit, wenn es, sagen wir mal, eine sehr exotische Sprache ist, die nicht sehr hรคufig vorkommt, hier noch mit anderen Anbietern zusammenzuarbeiten. Dann mรผssten wir uns aber im konkreten Fall anschauen, was sie da brauchen. Und auch da mรผssen wir uns genau noch mal erkundigen, wie das Ganze funktioniert, dass wir auch garantieren kรถnnen, dass die Daten ausschlieรŸlich auf unserem Server verarbeitet werden, weil das dann halt eine Spracherkennung ist, die wir nicht anbieten, da gerne einfach auf uns zutreten. Wir kรถnnen dann im Spezialfall gerne noch mal drรผber reden, wenn wir schon beim Thema Sprache sind.

Florian Polak: 00:31:56,160 –> 00:32:42,570
Ein wichtiger Punkt geht auch Beispiel insbesondere bei qualitativen Studien. Sie kรถnnen auch im Prinzip, wenn Sie einen Leitfaden beispielsweise auf Deutsch haben und die Studien mehrsprachig sind, also beispielsweise auf Englisch und auf Deutsch, dann kรถnnen Sie das Ganze transkribieren lassen, auf Englisch und jeweils auf Deutsch und dann aber den Leitfaden nehmen, um den auch auf die englischen Transkripte gegen die zu stellen, sodass die Antworten aus dem Kontext, aus dem englischen Transkript raus extrahiert werden, um dann im Prinzip aber auf Deutsch รผbersetzt werden. Das funktioniert. Es ist genaugenommen kein รœbersetzungsprogramm, sondern es ist, dass die KI versteht den Kontext der anderen Sprache, weil die Trainingsdaten in sowohl auf Englisch als auch auf Deutsch zur Verfรผgung waren.

Florian Polak: 00:32:42,840 –> 00:33:17,060
Das funktioniert erstaunlich gut. Das heiรŸt, Sie kรถnnen auch mehrsprachige Studien mit uns durchfรผhren, ohne weitere Probleme. So, dann die nรคchste Frage Kรถnnen mehrere Sprachen gleichzeitig verboten werden? Ja, das war kurz die Frage, die ich gerade beantwortet haben. Also zum Beispiel fรผr Studien in Belgien. Ja, das geht grundsรคtzlich. Also wenn Sie eine franzรถsischsprachige Studie haben und das andere wรคre Flรคmisch, zum Beispiel, sollte das kein Problem sein, mรผssten wir das einmal transkribieren in die jeweilige Sprache. Und wenn Sie dann Ihren Leitfaden aus auf beispielsweise Deutsch haben, werden die Antworten im Prinzip genutzt, um dann ein Ergebnis zu produzieren.

Florian Polak: 00:33:17,070 –> 00:34:08,850
Also Ihre Antwort zu der Frage zu beantworten. Wenn Sie denn die Zitate haben wollen, sind die dann logischerweise aber in der Originalsprache. Und die letzte Frage Kรถnnen bei quantitativen Studien demografische Daten mit offenen Lรคndern verknรผpft werden dann die Texte danach analysiert, also zum Beispiel bei Mรคnnern ist es so und bei Frauen ist es so, Ja, das geht also grundsรคtzlich. Das wรคre dann am ehesten unser letztes Modul, von dem ich gesprochen habe, dieses hier, dass Sie dann eine ganze Excel hochladen, wo dann die ganzen relevanten Datenpunkte drinnen sind und sie dann dagegen einfach die Fragen stellen. Also da kรถnnen Sie dann auch eine Auswertung machen nach Geschlechtern, nach Informationen, die grundsรคtzlich in diesen Exceldateien drin sind, um relevante Ergebnisse zu machen, kann natรผrlich auch kombiniert werden mit den anderen Modulen, die wir haben, um dann so ein Excel zu produzieren, gegen das Sie dann im Prinzip Ihre Research Fragen stellen kรถnnen.

Florian Polak: 00:34:10,320 –> 00:34:46,139
Okay, wunderbar. Dann waren das, glaube ich, alle Fragen. Hatte es noch eine Frage? Kรถnnen Sie die Preise der Pakete bitte noch mal wiederholen? Wir haben. Jetzt kommt ein bisschen darauf an, in welcher Kombination Sie das Ganze machen wollen. Bei den Preisen gilt es grundsรคtzlich zwei Varianten zusammenzuarbeiten Entweder Abrechnung nach Projekten. Das heiรŸt, Sie haben beispielsweise zehn Interviews, die Sie mit uns transkribieren und dann auswerten wollen und wir machen. Ich gebe Ihnen einen Preis, nachdem Sie das Ganze auswerten kรถnnen und sie zahlen dann nach Durchfรผhrung des Projektes. Oder die Variante ist, dass Sie einen Pauschalpreis mit uns machen.

Florian Polak: 00:34:46,139 –> 00:35:17,370
Da kommt es wie gesagt darauf an, welche Funktionen Sie gerne haben wollen. Und dann machen wir einen Pauschalpreis pro Jahr. Und dann ist es uns auch egal, wie viele Studien Sie darรผber laufen lassen. Kommt darauf an, in welchem Kontext Sie machen. Das Corporate aber macht im Regelfall dann Sinn, wenn Sie viele Datenmengen haben oder sehr, sehr viele Studien durchfรผhren. Ansonsten wรผrde ich Ihnen wahrscheinlich dazu raten, das Ganze auf Projektbasis Minus zu machen. Gut, dann vielen Dank, dass Sie heute ins Webinar gekommen sind. Wenn Sie grundsรคtzlich noch Fragen haben Sie kรถnnen. Meine Emailadresse finden Sie hier unten.

Florian Polak: 00:35:17,820 –> 00:35:38,190
Sie kรถnnen uns jederzeit natรผrlich auch schreiben. Grundsรคtzlich werden wir auch, glaube ich, eine Zusammenfassung von diesem Webinar auch nochmal zirkulieren. Die Zusammenfassung ist dann auch schnell generiert fรผr unsere Studie. Dann haben Sie da auch schon mal einen รœberblick, wie gut das System eigentlich erarbeitet und habe mich sehr gefreut, dass Sie heute gekommen sind. Und ich wรผnsche Ihnen noch einen schรถnen Nachmittag. Vielen Dank!

A Comprehensive Overview of Webinar Topics

The webinar provided attendees with a structured exploration of AI’s role in market research, covering the following topics:

  • The fundamentals of AI systems and their application in market research.
  • Strategies for overcoming common AI integration challenges, with a focus on Tucan.ai’s unique methodologies.
  • An in-depth look at Tucan.ai’s product suite, featuring case studies that demonstrate their problem-solving capabilities in real-world scenarios.
  • The critical importance of data security in AI applications and Tucan.ai’s unwavering commitment to client data protection.

Key Insights and Discussion Points

A highlight of the webinar was Florian Polak’s explanation of “AI hallucinations.” He used the analogy of a librarian to describe Tucan.ai’s data chunking and vector databases, which ensure that the AI, like a skilled librarian, can efficiently sort through vast amounts of information to find the exact insights needed without distraction.

Practical Tips for Market Research Professionals

The webinar provided actionable advice, including:

  • Implementing Tucan.ai’s anti-hallucination features to validate AI-generated insights, with Polak emphasizing, “Accuracy is the cornerstone of our AI solutions.”
  • Applying AI for rapid coding of open-ended survey responses, transforming hours of manual work into a task that takes mere minutes.
  • Utilizing Tucan.ai’s multilingual capabilities to analyze diverse data sets, enabling comprehensive and inclusive research studies.

The AI Advantage

By addressing the specific challenges of market researchers with state-of-the-art AI solutions, market researchers not only can streamline their research process but also ensures more reliable and actionable insights. Whether it’s for niche studies or a large-scale projects, AI tools can be tailored to meet the unique requirements of each research initiative.

Increase your productivity tenfold!

Get a free consultation:

Set up a quick meeting with our founder and CEO, Florian. He will be happy to advise you on your needs personally and free of charge!

What to expect in this interview:

๐Ÿค Getting to know each other personally with our CEO

๐Ÿ”Ž Personal needs analysis

๐Ÿ‘พ Personal product advice

๐Ÿ’ป Personal product demo from Tucan.ai

๐Ÿ™‹โ€โ™€๏ธ Answering all your questions