3. Dezember 2023

ShopTechTalks #59: Generative AI und E-Commerce

Der letzte Podcast ist schon eine ganze Weile her, und ich musste erst einmal tüchtig die Audio-Maschinerie entstauben, um wieder etwas zu veröffentlichen. Aber es lohnt sich, denn es gilt über ein Thema zu sprechen, das mich derzeit ziemlich von den Socken haut. Die Rede ist von der sogenannten Generative AI, von der jeder gehört haben sollte, so er oder sie in den letzten Monaten nicht komplett digital ge-detoxed in einem Dschungel verbracht hat. ChatGPT & Co. ziehen aktuell eine Menge Aufmerksamkeit auf sich – und beschäftigt man sich etwas näher mit der Materie wird auch klar, wieso.

Ich selbst bin noch ganz am Anfang meiner eigenen Forschungsreise in diese Welt, obwohl ich tatsächlich einmal in grauer Vorzeit Linguistik studiert und mich damit mit dem System beschäftigt habe, das allen diesen Plattformen zugrunde liegt: Sprache. Das disruptive Potenzial der sogenannten Large-Language-Modelle basiert darauf, dass sie sich niederschwellig mit natürlicher Sprache bedienen lassen – und teilweise so erstaunlich gute und ausgefeilte Antworten liefern, dass sie bereits Aufnahmetests verschiedener amerikanischer Universitäten meistern konnten.

Natürlich wäre es komplett naiv zu denken, das ganze Spektrum der Anwendungsmöglichkeiten sowie die Chancen und die Risiken in diesen schmalen Absätzen auch nur ansatzweise behandeln zu können. Um dieses Thema besser zu verstehen und verschiedene Perspektiven kennenzulernen, braucht es sehr viel mehr Raum. Daher habe ich mich letzte Woche mit Markus Schneider, dem CTO von Alphapet, getroffen und wir haben gemeinsam versucht, das Thema Generative AI zu umreißen, insbesondere im Bezug auf E-Commerce und Software-Entwicklung. Weiteres in dieser Richtung wird sicherlich folgen.

(Übrigens, Martin ist immer noch in der wohlverdienten Elternzeit, liebe Grüße!)



Transcript (wie sollte es anders sein) automatisch erstellt, kann also Fehler und Halluzinationen enthalten 😉

[5:34] Genau, also das ist das Thema, was in aller Munde ist. Wir haben uns überlegt, über welches Thema können wir sprechen, dachten, naja, wir versuchen, uns diesem Thema zu nähern. Nicht nur unbedingt oder nicht wegen des Hype-Themas, sondern weil wir es beide sehr spannend finden und das mal versuchen einzuordnen, weil es super viel Content gibt, um zu gucken oder vielleicht unseren Zuhörern zu helfen, da ein bisschen in der Informationsblut, ein bisschen den Überblick zu finden.

[6:12] Ich finde das Thema auch sehr spannend. Man muss gleich ein bisschen dazu sagen, ich bin nicht so der Mensch, der sich so schnell auf ein Thema hypen lassen kann.

[6:23] Das letzte Thema, was ich so gehypt war, ich war, glaube ich, zwölf Jahre.
Da habe ich verstanden, dieses Internet, das war 1996, Hier, das ist ganz schön krass und was dafür möglich ist, und das will ich machen.
Und dieses Thema Generative AI, so wie es jetzt auftaucht, ist so das erste Thema, was mich so angefixt hat wie vor fast 28 Jahren das Internet. Und deshalb finde ich es spannend.
Das ist mal ein Brett, das ist mal eine Aussage. Da bist du sozusagen quasi der ultimative Bullshit-Detektor, der hat sozusagen alle Jahre die ganzen Trends hast du einfach so an dir vorbeiziehen lassen. Jetzt sozusagen sagst du, okay, jetzt ist wirklich Zeit, mal genauer hinzuschauen. Ich glaube, aus verschiedenen Gründen ist das tatsächlich so. Und ich habe gestern noch einen Vortrag gehört, wo jemand meinte, das ist so jetzt der Napster-Moment. Napster kennt man ja vielleicht von ein paar Jahren, schon eine lange Zeit her, hat tatsächlich dazu geführt, also als MP3-Austauschplattform, dass daraufhin die Musikindustrie ihr ganzes Modell über den Haufen werfen musste.
Das war sozusagen die Geburtsstunde von legalen, digitalen Streaming-Services, Spotify und Co.

[7:39] Und ja, viele sagen, das ist halt auch so ein Moment. Okay, aber langer Rede, kurzer Sinn, oder genug davorrede.
Was ist das denn konkret? Also was ist sozusagen auf die Menschheit niedergekommen im letzten, Herbst, letzten Winter, worüber wir jetzt reden.

[7:57] Vielleicht kannst du mal einen kurzen Abriss geben, was wir tatsächlich da gesehen haben und wo wir jetzt hier alle reden.
Ja, also das Spannende an generative AI ist, was steht da technisch dahinter?
Generell, Machine Learning und AI gibt es ja schon seit Jahrzehnten.
Und was passiert da? Wir bauen Algorithmen, die versuchen, Muster zu erkennen, um diese Muster zu lernen, um sie dann wieder abzuspielen in verschiedenen Kontexten.
Und das ist nicht neu, damit beschäftigt sich die Informatik wahrscheinlich auch schon seitdem es die Informatik gibt.

[8:38] Normalerweise, wenn man Software entwickelt, setzt man einen Ingenieur, einen Programmierer, und der überlegt sich, wie kann man dieses Problem lösen.
Und hier ist die Idee, zu sagen, naja, bevor sich ein Mensch sich überlegt, was ist die beste Lösung, kann man den Computer nach der Lösung suchen und das dann einfach zu wiederholen.
Also es ist ja genau wie der Mensch lernt, durch Abgucken in der Realität lernt der Mensch oder auch Tiere und so weiter, wie man sich zu verhalten hat, um dieses Prinzip auf den Computer zu übertragen.
Und ich fand, letzte Woche habe ich auch einen Vortrag von Google gehört, Wie gesagt, das Spannende, was sich jetzt verändert hat, aus Sicht jedes Einzelnen ist, dass eben auf Research-Niveau gibt es das eben schon seit 50, 60 Jahren.
Seit vor 10 Jahren hat Google schon gesagt, sie sind eine AI-Company, weil genau diese Herangehensweise an Probleme die effiziente Lösung ist.
Und ja, AI für Unternehmen im Enterprise-Umfeld sozusagen, und Machine Learning wird schon seit eben zehn Jahren oder noch länger breit eingesetzt.
Und es war immer irgendwie für den Endanwanderer nicht so sichtbar.

[9:56] Aber das, was sich jetzt geändert hat, ist, dass jeder von uns da Zugang bekommt, insbesondere eben mit Chat-GPT, und dass eben diese besonderen, diese Large-Language-Model, die sozusagen Sprache, Dialog, Interaktion simulieren oder darstellen können, die sind halt in den letzten drei Jahren explodiert.
Also, um da mal Zahlen zu nennen, die Tokengröße, die Sie verarbeiten können, also wie viel Text und wie viel Parameter bzw. Parameter so ein Model haben kann, also wie groß ist das intern, das sind jetzt in die Trillionen gewachsen und das hat sich in den letzten drei Jahren verpufft zum 1.000-Tag.
Und damit kommt die große Leistung. Und da war ein Vergleich.
Normalerweise misst man die Rechenleistung, sagt alle zwei Jahre, tut sich die Rechenleistung verdoppeln.
Aber hier ist halt eine gerade Explosion entstanden. Und diese Kombination an diesem Quantensprung und dieser Zugänglichkeit jeden macht das in dem jetzigen Moment so spannend, dass da so ein gewisser Tipping-Point erreicht ist.

[11:15] Und du sagst ändern, das bedeutet konkret, dass sich jeder auf diese Seite gehen kann und einfach, eine Frage stellen kann, eine Anweisung, irgendwas, was er oder sie denkt, das jetzt passieren muss.
Und dann nach einer einfachen Spracheingabe, da muss keiner was großartig coden oder verstehen müssen, einfach nur eine Frage stellen oder eine Anweisung, und dann wird halt eine erstaunlich gute Antwort zurückgeliefert.
Und das ist, glaube ich, so das Wesentliche gerade, dass man nicht dieses, ach ja, schau mal da, ein Computer, der antwortet, ach, wie süß, sondern dass da wirklich tatsächlich sehr substanzielle Antworten kommen, vor allen Dingen jetzt, wo GPT-4 als Modell raus ist seit ein paar Wochen oder Monaten, wo man wirklich auch hingehen kann und das hat man glaube ich auch schon gelesen, dass alle möglichen Prüfungen, alle möglichen Zugangsprüfungen für irgendwelche Universitäten mittlerweile gemeistert werden können von diesen Algorithmen. Das heißt, das ist nicht mehr auf dem Level, sagen wir mal, die Hauptstadt von Deutschland, sondern das ist sehr viel umfangreicher.
Und es ist tatsächlich Text als Eingabe und Ausgabe. Und das ist tatsächlich dieses, was du meinst, dieses Large Language Model. Das finde ich das Erstaunliche, dass dieser Zugang so einfach ist und man trotzdem so viel damit erreichen kann.

[12:39] Ja, also ich sage, es ist halt ein sehr smartes Textverarbeitungsprogramm mit unheimlich viel internem Wissen.
Das macht es halt so spannend in der Qualität und der Texte.

[12:56] Und was es auch so spannend macht, dass alle Leute, die daran gearbeitet haben.

[13:01] Selber darüber erstaunt waren, dass man da viel mehr mitmachen kann, als dafür, dass es eigentlich geschaffen wurde. Und diese Kombination macht es so spannend. Und ich glaube, das ist das eine, und das ist halt eine neue Technologie. Ich sehe es auch als neues Tool, was man benutzen kann. Was aber eigentlich diesen Wendepunkt-Moment, den du beschreibst, macht, ist das Potenzial, was dahinter steht. Pip vom Doppelgänger-Podcast, der hat ja auf der OMA dazu ein Protokoll geschrieben. Es ist wie mit Elektrizität. Elektrizität wurde erfunden, um Energie zu speichern oder zu transportieren. Aber es hat noch viele Anwendungsmöglichkeiten gefunden, außerhalb der Glühbirne und ganze Dinge geändert.
Das ist auch das Spannende, dass intellektuelle Leistung, wo wir alle aufgewachsen sind, studieren und mit MINT-Berufen eine sehr gute Lebensgrundlage hast, aber dass diese intellektuelle Leistung jetzt auf einmal in gewisser Weise automatisierbar geworden ist.

[14:28] Absolut. Und das ist natürlich, wenn man jetzt auch so vielleicht mal so ein bisschen die Teufelsadvokat spielt oder ein bisschen die Kehrseite der Diskussion auch mal beleuchtet, das ist natürlich genau, was du sagst, auch das, was Kritik auf den Plan ruft, weil es natürlich dann ein Verrät, naja, wenn denn hier künstliche Intelligenz in der Lage ist, diese Texte in dieser Qualität zu generieren und sozusagen fast schon ein Verständnis von diesen Problemen zeigt, ist das nicht der Untergang der Menschheit. Also, das ist mal krass zu formulieren. Heißt das nicht, dass wir uns als Spezies obsolet machen, weil sozusagen die Art und Weise, wie wir miteinander umgehen, also wie wir unsere Gesellschaft bauen, wie wir als Menschen miteinander interagieren, kann repliziert gefaked werden durch Algorithmen und wir würden es vielleicht auch gar nicht mitbekommen.
Also, wenn… Es gibt auch diesen berühmten Turing-Test, dass wenn der Punkt erreicht ist, wo man denkt, dass gegenüber ist ein Mensch, obwohl es ein Computer ist, dann ist sozusagen auch eine wichtige Marke sozusagen überschritten.
Und dass das halt ein Problem ist. Und daher es gerade auch viele Bewegungen in die Richtung gibt, genauer verstehen zu wollen, ja, was heißt denn das überhaupt?
Also, ist das nicht zu gefährlich, um damit einfach jetzt in Anführungszeichen rumzuspielen. Können wir das? Sind wir als Welt schon bereit dafür, dass wir dieser neuen Art von Intelligenz Raum gewähren? Oder sollten wir dann noch.

[15:56] Sehr viel vorsichtiger sein und viel, viel kleinere Schritte gehen.
Also ich glaube, man muss halt zwei Level von Gefahren unterscheiden.
Also das erste ist, was sehr naheliegend ist, was Menschen mit diesem Tool einsetzen.
Und ich meine, das ist so ähnlich wie Social Media. Jeder ist bei uns in verschiedenen Netzwerken unterwegs oder unterwegs gewesen.

[16:23] Wird aber genauso für Desinformation und dergleichen benutzt, um Menschen anzustacheln.
Und es ist nachweiswillig gewesen, dass ja schon Revolutionen aufgrund von Falschinformationen in Facebook stattgefunden haben und Instabilitäten in verschiedenen Ländern in Afrika verursacht haben.

[16:42] Oder ja, das ist halt auch eines der Themen bei jeder US-Wahl oder jeder Wahl.
Und das natürlich auch immer überlegen, wie Sie die Wahl in demokratischen Ländern auch wie bei uns, beeinflussen können.
Und da gibt es, wenn man sich damit beschäftigt, genug Material und solche Tools, die einfach Text generieren mit einer anderen Intention, die Bilder, Fake-Bilder, um bei den Menschen gewisse Emotionen, Gedanken und so weiter zu erfordern, wo diese Tools machen das viel einfacher und viel günstiger.
Und ich glaube, da ist die Antwort, die wir eh schon haben sollten, ist, uns weiter in Medienkompetenz, unsere Mitmenschen, unsere Kinder, da weiter zu schulen.
Und das wird natürlich erweitert werden. Wir haben alle irgendwie gelernt, irgendwas in Google einzugeben und zu gucken, ist eine Webseite vertrauenswürdig oder nicht.
Nicht, mehrere Webseiten zu fragen, die Informationen, die mir bereitgestellt werden, sei es von der Webseite, sei es von Google, sei es von JGPT, wie kann man die hinterfragen. Und ich glaube, diese Medienkompetenz ist in diese Richtung Euer Christian.

[18:05] Also sehr wichtig. Das andere Thema ist dieses Thema AGBI, also General Artificially Intelligence, das heißt, wenn die AI, bisher sind die Anwendungsfälle ja, die AI ist für einen Anwendungsteil trainiert, ja, also auch ShedGBT ist halt, um Text zu erzeugen.
Und das, was das Ziel von OpenAI ist, ist halt, eine KI zu schaffen, die wie ein Mensch denken und handeln kann und nicht mehr limitiert ist für den Anwendungszweck.
Und das Thema, was dahinter steht, ist, wenn wir eine KI erschaffen, die selbstständig, also die diesem Punkt erreicht ist, dass sie sich selbstständig weiterentwickeln kann und lernen kann.
Da gibt es ja auch sehr viele Filmvorlagen, was passiert, wenn die KI schlauer wird als der Mensch oder die KI lernt, dass der Mensch eigentlich das Problem ist, um sie weiter fortzuführen und so weiter.
Da gibt es viele Dinge und das ist dieses Thema Bedrohung der Menschheit.
Was ist, wenn die eigene Schöpfung der Menschheit sich gegen den Schöpfern stimmt?

[19:21] Das ist ein Thema, mit dem man sich bewusst beschäftigen muss.
Auch trotz der großen Fortschritte liegt das aber noch nicht morgen auf der Hand.
Das Gute, was ich zumindest sehe, sind zwei Dinge. Erstmal, dass dieses Thema ernst genommen wird.
Dafür, dass unsere Politiker so langsam sind, waren sie jetzt ziemlich schnell Friedortmen vor dem Kongress, um genau diese Themen zu diskutieren.
Und sich viele Leute damit beschäftigen. Und das andere ist, meine Blickweise ist, seit 70 Jahren gibt es jetzt genug Atomwaffen auf diesem Planeten, um uns alle auszulöschen.
Das ist auch noch nicht passiert.
Und wir vertrauen jeden Tag, dass es morgen nicht passiert, weil alle Menschen, die sich ja dieser Macht bewusst sind, damit umzugehen.
Und so, also das ist so die eine Blickweise, dass ich halt denke.

[20:21] Das Verbieten auch nicht die Lösung ist, beziehungsweise es würde auch nicht funktionieren, weil halt auch sehr viel Potenzial darin steckt.
Ja, ich glaube, ich glaube auch, dass das ein gutes Zeichen ist, dass Sam Altman übrigens ist der CEO von OpenAI, dass der jetzt die Tage quasi bei einer Anhörung war.
Und man könnte jetzt formulieren, bei einer Anhörung zu einem Zeitpunkt, wo noch nichts Schlimmes passiert ist.
Es gab ja derartige Anhörungen auch mit Mark Zuckerberg, lange nachdem das Kind schon mehrmals in den Brunnen gefallen war.
Jetzt ist es natürlich schön, wenn man quasi daraus lernt und vorab diese Fragen stellt und vorab diskutiert. Denn es ist…
Wenn man das so weiterdenkt, wir kommen ja fast schon in so ein philosophisches Territorium, wo man sich die Frage stellen muss, können wir es überhaupt noch als Menschen begreifen, das, was da passiert?
Also können wir nachvollziehen, auf welche Art und Weise diese Antworten, diese Resultate dazu zustande kommen?
Oder müssen wir irgendwann mal attestieren, dass es hier um eine Geschmacksrichtung von Intelligenz gibt, die Joao Harari mit einer Alien-Intelligence bezeichnet hat.
Also ist das wirklich was?

[21:44] Also es kommt quasi auf die Menschheit hernieder und wir haben irgendwo mal aufgehört zu verstehen, warum das so ist. Es ist einfach, wir nehmen es einfach so hin, dass es so quasi diesen Output gibt, aber wir verstehen nicht mehr hundertprozentig genau, was dahinter steckt.
Und das Argument mit den Atomwaffen, das beschreibt er auch und sagt dann, ja, das ist schon so. Also Atomwaffen sind jetzt, wir haben tausende Atomköpfe, die sofort quasi losfliegen könnten.
Die können sich aber nicht selbst reproduzieren.
Keine Atomwaffen können andere bauen. Wohingegen die Idee ist bei diesen Large-Language-Models, dass theoretisch denkbar ist, dass sich das weiterentwickelt, dass neue Dinge entstehen.
Das ist, glaube ich, so wahrscheinlich ein Unterschied zwischen Atomwaffen und AI.
Wobei ich dir recht geben muss, Das ist alles noch ein bisschen sehr, klingt alles sehr nach Terminator, aber hat auf jeden Fall, glaube ich, aktuell seine Berechtigung, weil in der Tat die Entwicklung so schnell ist, dass man, glaube ich, aufpassen muss, nicht überholt zu werden von der technischen Entwicklung, sodass wir als Gesellschaft auch Zeit haben, das zu debattieren und zu fragen, okay, wo sind denn die Regeln?
Denn ich glaube auch, so eine Firma wie OpenAI möchte ja auch sicherstellen, dass eventuelle Haftungsfragen geklärt sind. Was passiert denn da, wenn die einfach da so die Technologie halt weiter weiter raushauen, sage ich mal, und dann irgendwann mal eine Gesetzgebung entsteht, die das dann unter.

[23:12] Strafe stellt oder so. Also das heißt, ich glaube, es ist ja auch im Interesse der Unternehmen auch eine Klarheit zu bekommen, wie man da agieren sollte.

[23:24] Ja, das ist so ein bisschen so die Grundsituation. Und jetzt sind wir beide ja schon so seit einigen Wochen im E-Commerce unterwegs.
Kann man schon so sagen. Kann man schon so sagen, ne?
Und das heißt, die nächste spannende Frage wäre, wie ist denn die Anwendung auf E-Commerce?
Das werden wir heute, glaube ich, nicht mehr natürlich vollumfänglich beantworten können.
Aber wir können ja vielleicht mal ganz kurz anteasern.
Was glaubst du, was sind denn so die unmittelbaren Effekte oder Anwendungsfälle von GenAI im E-Commerce-Umfeld?

[24:02] Ich glaube, es gibt da zwei Perspektiven. Was ändert sich für den Kunden, und was ändert sich für den Anbieter?
Für den Anbieter, das war im Vorgespräch, so im Podcast, dieses Thema, was kann JetCPT mehr, außer jetzt schönere Produktbeschreibungen zu generieren?
Also dieses, das ist, glaube ich, wenn man nach Chatshipitib.com sucht, dann findet man sofort viele Marketing-Texte, SEO-Optimierung und dergleichen, also um Content erstellen und ich glaube, der Preis für Content, was ja auch ein Thema der letzten Jahre, Content-Commerce und so weiter, und wie baut man da auch zu Technologie, Content zu verwalten, Content wird auf einmal viel, viel günstiger.
Ja, und es wird halt auch, das ist offensichtlich irgendwie eine Content-Schwemme zu geben, das macht es dann den Kunden nicht einfacher. Aber ich glaube.

[25:01] Die spannende Frage ist, ob der Content schneller wächst, oder die Möglichkeit, den Content zu verwalten.
Weil, ja, Alexa hat das irgendwie nur bedingt geschafft, oder gar nicht geschafft, in anderen Zugang zu Produkten und Bestellen zu geben.

[25:21] Aber mit ChatGBT und den Plugins kann man ChatGBT, das hat jetzt einen Browser-Plugin, sagen, ja bitte such mir mal das passende Produkt, was meinen Ansprüchen entschuldigt.
Wo bekomme ich das günstig zu kaufen? Und damit verlagert sich der Traffic von Google in ChatGBT.
Und das ist halt, glaube ich, super spannend, weil JetTPG mit diesem Pros-Plugin kann es halt mehrere Seiten durchsuchen und die Informationen halt zusammenzufassen und aufarbeiten.
Und damit ändert sich das Verhalten des Konsumenten. Wir verkaufen ja Hundefutter und wir haben ein sehr erklärungsspezifisches Produkt.
Das heißt, unsere Kunden füttern unsere Marken, weil sie ihrem Hund das Richtige und gutes Futter geben wollen.
Das ist ja gar nicht so einfach, Ernährungsfragen zu klären.

[26:29] Bei der vielen Auswahl an Produkten ist dann so, welches ist jetzt für meinen Hund das Richtige.
Wir haben schon sehr viele Erfahrungen mit allen möglichen Chatbots und so weiter gemacht.
Da irgendwie dieses regelbasierte Prinzip ein idealen Bot hinzubauen, gar nicht so einfach.
Und das ändert sich jetzt, dass man diese Informationen, diesen Kontext, da reingeben kann.
Und das ist, glaube ich, eine spannende Entwicklung. Und ich bin ja eh im E-Commerce, sage ich mal, sehr radikal und sage, der beste Checkout ist halt No Checkout, Wenn ich halt sagen kann, hey, mein Hund, ich brauche wieder Futter und morgen kommt es, ohne dass ich mit dem ganzen Hässel, den wir irgendwie mit UX-Design und Customer-Design und so weiter versuchen, ja, den Pain-Point zu lösen, irgendwie eine Webseite brauchbar zu machen, aber das Beste ist eigentlich, wenn der Kunde sein Bedürfnis gefüllt und wenn er weiß, unsere Produkte sind die richtigen und der Sack ist leer oder er wird dann leer.
Nächste Woche, dass er möglichst einfach wieder diesen Sack füllen kann und da gibt es jetzt glaube ich einen neuen Zugang, das zu integrieren in vielleicht eine Variante, die der Kunde besser annimmt als den Dash Button von Amazon.

[27:56] Ah, der gute alte Dash-Button. Ich habe da noch eine, ich glaube, da gibt es noch eine zweite große Welt, und da kommen wir wirklich nicht zu, um das zu besprechen.
Da müssen wir echt in die nächste Folge gehen, aber ja, Software, Architektur, also wie, was hat das für Konsequenzen, dass man, was ja, äh, GPT-4 auch richtig gut macht, ist Code-formulieren.
Code-Schreiben, was ist denn, wie entwickelt sich denn das weiter, wenn wir sagen, du brauchst eine Integration von Software A und B, du fütterst sozusagen eine Intelligenz mit der ABI-Dokumentation und hast auf einmal ein Plugin dafür zum Beispiel.
Oder was ist denn, wenn du als Händler sagen kannst, als Händlerin sagen kannst, ich möchte mein Hundefutter vermarkten, was ist denn die beste Art und Weise, das im Netz zu vermarkten?
Also, wer sagt denn, dass es sozusagen nicht irgendwann mal automatisierbar ist, diese ganze, das ganze User-Interface zu bauen.
Und wenn man dann auch noch weiterdenkt und dieses ganze, also es gibt ja mittlerweile auch Programme, die Bilder erstellen. Wir alle kennen das Bild von unserem Papst in dem weißen Daunenmantel.

[29:15] In der Kombination, dass man auch selbst die Erstellung, die Planung und Erstellung von Software, von User-Interfaces eben auch so ein Stück von Automatism bauen lassen kann.
Das ist, glaube ich, auch noch ein riesen, riesen Feld, das wir gerade erst mal so im Ansatz verstanden haben.
Ich glaube, da wird auch eine ganze Menge noch in die Richtung passieren.
Ja, also das ist auch ein Thema, mit dem sich mein Team und ich schon sehr mit beschäftigen.
Da gibt es verschiedene Ansätze, von eben GitHub Copilot, das wiederum auch auf der Technologie von OpenAI passiert.
Und da ist der Ersteindruck, das ist so gerade mal der erste Schritt und noch gerade noch nicht wirklich sehr smart.
Es gibt eine Integration in die EDI, aber ein einfaches Beispiel, also die EDI, das ist sozusagen das Programm, mit dem der Entwickler arbeitet.

[30:09] Und das weiß super viel über, wie das Programm aufgebaut wird, welche Variablen, welche Funktionen es gibt.
Aber die Version von GPT, die darin integriert ist, macht halt Vorschläge und checkt noch nicht mehr die Variablen, die sie da reinschreiben, ob es die überhaupt gibt. Und da gibt es so einfache Dinge, die das Leben viel smarter machen. Und es gibt da auch schon – ich gehe mal in diesen Richtung – das Experimentierpass Auto-GPT, wo man versucht, hintereinander das zu iterieren.
Man schreibt ein Programm, dann sagt man, teste jetzt den Test, wenn der Test fehlsteht, überarbeite den Fehler, um das irgendwie zu automatisieren. Das ist jetzt mehr so experimentell, aber da sieht man, wo die Reise hingeht. Und ich glaube, der Output pro Developer wird in den nächsten Jahren stark steigen.
Ich mache mir jetzt nicht so viele Sorgen, dass die Entwickler alle arbeitslos werden, weil, das wissen wir auch in der IT, egal wie viele Entwickler du hast. Es gibt immer mehr zu tun und du musst priorisieren, aber ich glaube, das ist eine spannende Reise, wie du das einsetzt, um viel schneller zu iterieren und wie du deinen Software-Entwicklungszyklus da auch an die neuen Möglichkeiten anpassen musst.

[31:30] Definitiv. Und ich sehe schon, das war, glaube ich, ein gutes Schlusswort für diese erste Folge, weil wir werden das sicherlich noch vertiefen können und müssen. Das soll erstmal unser erster Aufschlag gewesen sein, um mal so ein bisschen den Boden zu bereiten und zu besprechen, worüber wir überhaupt reden. Und dann würde ich sagen, dass du einfach mal beim nächsten Mal etwas tiefer einsteigst, genau dieses Thema, also Anwendung im E-Commerce und inwieweit AI, generative AI, tatsächlich Produktivität von Softwareentwicklern zum Beispiel steigern kann.


Roman Zenner (ShopTechBlog)

Ich beschäftige mich seit mehr als 20 Jahren mit E-Commerce-Technologie und gehe hier im Blog der Frage nach, mit welchen Systemen Marken und Händler:innen ihr Online-Geschäft abbilden.

Alle Beiträge ansehen von Roman Zenner (ShopTechBlog) →