News AI 05/26 –

Ads ChatGPT // Moltbot // Skills // Maia 200

29.01.2026

Shownotes

Jetzt ganz neu in der programmier.bar: Videos! Ab sofort könnt ihr die News-Folgen auf YouTube und Spotify auch als Video ansehen.

Ihr wollt auf der programmier.con 2026 einen Talk halten? Dann meldet euch jetzt unter: cfp.programmier.bar 

In dieser Folge schauen wir auf neue Geschäftsmodelle, neue Agenten und neue Hardware – und was das alles für uns als Entwickler:innen bedeutet. Die Themen dieser Woche:

Werbung in ChatGPT: OpenAI führt Ads ein und startet den neuen Go-Plan für 8 $. Versprochen wird „Conversation Privacy“. Wir diskutieren, wie realistisch das ist, wie Targeting funktionieren könnte und ob Werbung bei AI-Assistenten akzeptiert wird.

Moltbot: Ein selbstgehosteter, Open-Source-AI-Agent mit Zugriff auf Browser, Terminal und Messenger wie WhatsApp oder Slack. Extrem mächtig, stark gehypt, aber auch mit echten Security-Risiken.

Skills für LLMs: Ein neues offenes Skill-Verzeichnis soll Agenten strukturierte Fähigkeiten beibringen, von React-Best-Practices bis PDF-Automation. Spannend, aber nicht ohne Risiken.

Microsoft Maia 200: Microsoft stellt mit Maia 200 einen neuen AI-Chip vor, der künftig Azure, Copilot und GPT-5.2 antreibt. Mehr Effizienz, mehr Wettbewerb, langfristig günstigere Inferenz.

/transkript/programmierbar/news-ai-05-26-ads-chatgpt-moltbot-skills-maia-200
Dennis
Hallo und herzlich willkommen zu den AI News 5 Jahr 2026. Wir werden heute über sprechen, über Maya 200, über und über Ads, also Werbung in ChatGPT, wo wir in unserer Jahresrückblick schon mal ein bisschen drüber gesprochen haben. Wer sind wir? Ich bin Dennis Becker und bei mir ist heute
Fabi
Der Fabi Finkelow und auch der Philipp.
Philipp
Schön, dass
Dennis
ihr da eingeschaltet habt und genau uns zuhört, wenn wir über die folgenden Themen sprechen. 2 kurze Wie nennt Jan das immer in seinen Folgen? Nicht Hausarbeit. Service Enouncements, nee, keine Ahnung.
Philipp
So Housekeepings sagt der Glaube.
Dennis
Housekeeping, genau. Sehr gut. So Housekeeping Sachen. Erstens, Programmiercon 2026, unsere eigene Konferenz wird es wieder im November geben. Es gibt einen Call for Proposals. Wenn ihr also Lust habt, dort etwas vorzustellen, dann geht auf mal die Seite CFP Punkt Programmier Punkt Bar und dort könnt ihr etwas einreichen. Und wo wir gerade noch bei Konferenzen sind, möchte ich auch hier einmal ganz kurz auf die hinweisen. Das ist eine Konferenz in Dresden, wo wir auch als programmier.bar, als Content Partner dabei sind und dort auf der Bühne einen eine Live Podcastfolge machen werden. Und es gibt aber zusätzlich auch noch für euch die Möglichkeit, günstiger dahin zu kommen, denn wir haben einen Rabattcode bekommen. Alles groß geschrieben, Team Unterstrich programmier.bar ohne Punkt ist der Code, den ihr nutzen könnt, dann für 230 Euro netto eure Dekompide könnt und dann für 230 Euro netto eure Tickets dort zu bekommen. Also von daher, genau, Nettokonferenz war ich letztes Jahr eintägiges Ding. 4 Tracks, die es gibt. Und wird mit Sicherheit auch wieder einiges an AI News mit dabei sein. Das Programm ist größtenteils auch schon online, also könnt ihr gucken, wer da so vorbeischneit. So, dann starten wir mal mit Barbie und dem Wahrwerden seiner ist das schon so? Oder die ersten weitere Zeichen?
Fabi
Ja, haben wir die haben wir die, war das eine meiner Predictions, dass Ads auf jeden Fall kommt? Es ist also, genau, wer das das Thema ist, Open AI hat announced, dass es bald Ads in Chat geben wird. Mal wieder ein Feature, wofür wir VPN bräuchten, in die USA zu kommen so, aber ein Feature, bei dem ich jetzt diesmal sage, so ganz rot, dass ich dass es bei uns nicht ist. Genau, Sie haben angekündigt, es soll jetzt im Laufe des ersten Halbjahres kommen so. Im Zuge von Ads werden eingeführt gibt's noch einen weiteren Tier, der jetzt auch in die USA kommt. Also neben dem Pro und dem diesen Max Plan gibt es jetzt auch den Go Plan für 8 Dollar im Monat. Sie hatten das jetzt geschrieben, also vorher war mir dieser Plan gar nicht bewusst. Ich denke mal, weil das eben keinen Plan war, den's in den USA gab und noch nicht in Europa, aber sie hatten's in 140 Ländern bereits eingeführt seit August.
Philipp
Indien, weiß ich, war's ganz groß damals.
Fabi
Genau, also Indien hatt ich's auch mitbekommen so in dem. Also das das war war mir nicht so bewusst, dass es dann in so vielen Ländern schon war. 171 sagen sie, seit August haben sie's eingeführt, aber eben jetzt auch in den USA, weil, der haben's im Grunde genommen eingeführt, weil das der sein wird, der aber trotzdem mit Ads dann stattfinden wird. Also dann ist es im Endeffekt bei ChatGPT free als auch Go wird es Ads geben. Und Go ist sozusagen dann ein Einsteigertier, Sie haben jetzt gesagt, im Vergleich, sodass man zehnmal mehr Anfragen als im Free Tier machen kann, also sehr viel mehr, also ich sag mal, für die Privatnutzung wahrscheinlich am Ende ausgelegt. Aber die Einschränkung, das ist weit, dass es in diesem Plan Ads geben soll. Wie jetzt Ads genau aussehen, haben Sie jetzt noch nicht genau gesagt. Es gibt so 2, 3 Previews und wir haben son paar Grundprinzipien Ihrer Ad principals gemacht. Also ich glaub, das der eine Part ist sozusagen, dass die Antworten, also also dass die Antworten nicht beeinflusst sind von dem, was wofür geworben wird, sondern dass Werbung im Endeffekt immer, wenn man etwas, wenn es zum Kontext passt, zusätzlich angezeigt werden soll. In Ihrem bisherigen Preview ist es immer so, dass es ein Block ist, der am Ende von der Chatantwort kommt und immer ganz explizit mit markiert ist. Aber Sie sagen auch selbst, da müssen Sie noch schauen sozusagen, wie das Ganze jetzt wird. Es ist interessanterweise, ich glaub, in dem Zuge, das jetzt über Erz gesprochen wurde, ist ja auch immer dieser der Beitrag von Sam Altman im Oktober 24 an der Harvard University, ich noch mal 'n bisschen viral gegangen. Damals hat er über Erz gesprochen und das Zitat aus dem fünfzehnsekündigen Snippet ist, also Business Model. Wo er meint, dass es also aktuell, zu dem Zeitpunkt damals, jetzt knapp über 'n Jahr her, meinte er, er kann sich's aktuell nicht vorstellen, dadurch, dass er der persönlich Assistent sein soll, viel auch mit Vertrauen zu tun hat und aber er es jetzt nicht komplett ausschließen würde, aber auf jeden Fall so der letzte Strohhalm. Und ich glaub, in dem Zuge ist natürlich auch noch mal sehr interessant zu betrachten, das, was wir auch zwischen den Jahren diskutiert hat, so der, was Open AI angeht und dass sie jetzt sehr viel mehr eben diese Kunden kämpfen müssen und sie ja trotzdem ihre revenue Prediction bis 2030 irgendwie erfüllen müssen. Es ist jetzt auf jeden Fall 'n Jahr, wenn man, da kam jetzt grade vor 'n paar Tagen von Simplor Web eine Statistik raus für den generative a I Traffic Share, wo vor 12 Monaten Open a I noch im, was haben wir hier, 87 Prozent des generalative AI Traffic Shares lief komplett über Open AI beziehungsweise ChatGPT. Und innerhalb von 12 Monaten sind sie von 87 auf 64 Prozent runter mit natürlich dem zweiten Platz hier, was wir auch schon zwischen den Jahren diskutiert haben mit Gemini. Also ich denke mal, dass der kompetitive Druck am Ende auch ein Punkt war, weshalb das sozusagen mit eingeführt wurde, weil sie natürlich ihre ganze Strategie darauf basieren, dass eben der der Revenue folgen muss, auch weitere Investments dann zu sichern bei den ganzen Investments, was sie in puncto Datacenter und in fairance dann schon geplant haben. Und genau, son bisschen zum, aber wenn man noch mal auf die ad principles geht, der eine Part ist, dass Sie sagen, Conversation Privacy. Also dass Ad Anbieter keinen Zugriff auf den Kontext, die Konversation mit ChatGPT haben. Und ich glaub, das ist so der Punkt oder die die die eigenen Konversationen, der würd ich sagen, son bisschen strittig ist insofern, dass sie natürlich so sagen, die Konversationen an sind an sich sind privat. Aber wenn man natürlich mal überlegt, okay, wie verdienen Sie oder wie können Sie potenziell mit Ads irgendwie Geld verdienen so? Wenn man ja auf jeden Fall sagt, so über die pay Plans werden Sie eine ganze Ecke mehr machen als über die Ärzte, zumindest wenn man's auf eine Pro User Basis sieht so. In Summe ist natürlich die Frage, aber dann ist es ja so, dass Meta und Google die erfolgreichsten in dem Space im Endeffekt so erfolgreich sind, weil sie eben so extrem Werbung machen können so. Und da ist dann son bisschen natürlich die Frage so, ist es, wird es wirklich am Ende so sein, dass Leute, die Ads schalten, keinerlei Targeting da machen können und dass sie sozusagen wirklich nur auf Zufall, falls die richtige Anfrage kommt, da Ads geschaltet werden? Wahrscheinlich nicht. Also heißt, ich denke mal, damit meinen Sie auf jeden Fall, Sie haben keinen Zugriff auf die Konversation, über das OpenAI aus den Konversationen Merkmale über Ihre Nutzer erstellt, dann Ads getarget und damit sehr kosteneffektiv irgendwie ausspielen zu können. Haben Sie nicht explizit ausgeschlossen?
Philipp
Ja, hab ich, also ich mein, wenn wir bei uns bei Google anschauen, Du kriegst ja sponsortelinks basierend auf dem, was Du eingibst. Und das Einfachste, was ich mir halt vorstellen kann, Du jattest halt mit ChatGPT, im Hintergrund läuft halt irgend eine Art oder Verständnis und dann schauen die in ihrer Datenbank nach, hey, hab ich irgendwelche Anbieter, die aktuell da sind? Und dann wird das bereitgestellt. Und ich mein, glaub, ich ihr wisst's wahrscheinlich besser bei Meta, aber bei Google hast Du ja auch dieses auf Keywords. Und ich kann mir halt vorstellen, dass bei Open Airi dann auch irgendwann so was kommt, dass, wenn Du irgendwie hast, Antropic und irgendwie Geminari wollen halt irgendwie innerhalb von Werbung schalten und gehen auf die gleichen Keywords wie irgendwie, dass da halt auch irgendwann Na ja gut. Aber ich glaub, dieser Keyword Part,
Fabi
das wär ja der, den ich jetzt erst mal, wo ich sagen würde, natürlich machen sie's so. Das ja das, was Sie sagen, sozusagen ahnse in, also dass es auf die Antwort sozusagen ja ankommt oder auf die Anfrage, das wäre sozusagen der Keyword Part. Ich suche etwas und passend zu dem Keyword wird mir Werbung ausgespielt. Der andere Part mit Targeting wär aber so was wie, dass es eben aber auch nur ausgespielt werden soll, wenn es wenn wir's mal ganz eng machen würden von Leuten, die bei Lotum arbeiten so. Wenn man jetzt auf das auf das engste Merkmal irgendwie sieht, was ja dann schon nicht spezifisch auf die Anfrage ist, sondern darauf, was für Metadaten OpenAI über mich gesammelt hat.
Philipp
Ja, ich glaub, das, also Du hast halt einfach viel mehr Kontext in ChatGPT als bei 'ner Google Anfrage. Schon allein, was Du normalerweise chattest, das sind ja mehrere Züge vielleicht. Und vielleicht bei der ersten Anfrage, okay, noch kein hohes hohes Matching mit irgend 'ner Werbung und dann bei der nächsten gibt's halt doch irgendwie 'n Artikel. Was ich interessant fand, was ich auf Twitter gesehen hab, und zwar nach die Information, was ja son News Provider ist, sag ich mal, kosten, ist ist der Preis pro 1000 Impressionen bei 60 Dollar, was das Teuerste überhaupt ist. Also es, ich hab sone son Chart offen, dass für für 60 Dollar kriegst Du sozusagen 1000 Impressionen und das zweitteuerste ist dann Podcast TV und dann kommt Streaming, dann kommt Podcast, dann kommt Cable TV, dann kommt Snapchat und dann die ganzen anderen Sachen
Fabi
Mit wie Mit 60 Dollar, meinen Sie meinen Sie innerhalb von AI sozusagen, was Sie predict, was der WM sein wird?
Philipp
Sozusagen, wenn Du halt Werbung kaufst, Du kaufst ja immer eine gewisse Anzahl von, hey, ich möchte das zu 10000 Leuten oder so was ausspielen, ja.
Fabi
Mhm.
Philipp
Und 60000 Impressionen kosten 60 Dollar. Das heißt, wenn ich irgendwie 1000000 Menschen erreichen wollen würde, müsstest Du halt 60000 Dollar dann dafür bezahlen. Was ja
Fabi
Für für was? Für welchen Kontext? Also in welchem Für die alte Art von Werbung?
Philipp
Also wenn ich, ich möchte Werbung schalten in ChatGPT
Fabi
In ChatGPT, okay, das ja das ist aber sozusagen Ihr oder woher haben Sie diese Information? Weil bisher kann ich ja noch keinen schalten. Also das ist das, was Sie glauben an
Philipp
die, was Das ist das, was Also ich mein, Open Air muss ja wahrscheinlich mit irgendwelchen Werbeagenturen und Partner halt zusammenarbeiten und irgendein Pressingmodell dann ausarbeiten und das ist das, was Sie sozusagen rausgefunden haben.
Fabi
Ja. Genau und da ist halt die, deswegen, da ist halt noch mal für mich der trotzdem noch mal der interessante Part, wenn ich, ob wir da genau jetzt allein waren in unserer Diskussion, so dieser Conversage Privacy Part so. Nehmen Sie wirklich nur den Kontext aus der aktuellen Konversation und passen, ob's darauf passt oder sagen so, sobald ich halt irgendwie, keine Ahnung, nach, so gut nach Milch werd ich jetzt nicht fragen, sobald ich nach Schuhen oder so was frage, kann können halt auch die die Werbeanfragen sozusagen kommen und die passenden Schuhe vorgeschlagen werden, was ja schon mal sehr personalisiert wäre. Aber es kann ja trotzdem sein, dass man noch mal auf bestimmte personelle Merkmale irgendwie gehen möchte, weil man nur eine gewisse Audience irgendwie targetten will und eben nicht jeden, der sich für Schuhe interessiert so. Und das ist ja etwas, wo man dann sagen muss, ja, Also ihr müsst ja diese Informationen aus meinen vergangenen Konversationen ziehen und dann sind sie ja nicht mehr wirklich privat, wenn ihr die Daten, die für Werbeanbieter wichtig sind, extrahiert und damit irgendwie filterbar macht. Und dann in Kombination, wenn dann noch die richtige Abfolge kommt, zeigen wir's an so. Von daher, dieses Conversation Privacy Ding, weil Du ja sagst, sie sie müssen, also sie werden ja so so hohe ECPMs irgendwie nehmen müssen, weil sie werden sehr wenig, sehr viel weniger Werbung ausspielen können, wenn ihr Grundprinzip ist, Du musst danach gefragt haben, um's dann angezeigt zu bekommen.
Philipp
Ja, ich könnt mir vorstellen, dass OpenAir halt der Mittelste Mann Also die werden nicht deinen Chat an, keine Ahnung, Nestlé oder so was schicken, sondern die haben halt deinen Chat und Nestlé hat halt irgend eine Idee, wofür sie Werbung schalten wollen. Und die schauen dann, dass das halt passt oder nicht passt. Und wird's sich wahrscheinlich über Zeit wird's irgendwelche Agenturen wiedergeben, die sich darauf spezialisieren, wie Du am besten Werbung oder so was schaltest. Ja.
Fabi
Aber sie haben halt 'n bisschen eine andere aber grundsätzlich eine andere Richtung, ne, weil ich mein, Dennis?
Dennis
Ich bin grundsätzlich bei Philipp so, dass ich da halt denke, auch nur der Kontext 1 Konversation ist tendenziell natürlich deutlich höher als eine Google Anfrage. Na, also da, das ist ja schon 'n bisschen mehr Inhalt und 'n bisschen mehr irgendwie Relevanz als jetzt einfach nur eine simple Google Anfrage. Von daher kann man da, glaub ich, schon noch gezielter oder besser Werbung machen, auch wenn man jetzt erweiterten Kontext aus historischen Konversationen et cetera nicht hat.
Fabi
Na ja gut, aber also Google macht ja auch nicht nur auf Basis meine, ich mach jetzt einen Suchbegriff und deswegen zeigen sie mir da was an. Es gibt ja trotzdem getardete Audiences und sie haben mehr Informationen über mich und das kriegen sie im Endeffekt durch, Suchhistorie und so weiter, haben sie halt genug Informationen und können noch weitere Merkmale an mich dranhängen. Und das find ich aber, im Endeffekt nutzt Google halt die Daten, die ich ja auch son bisschen, sag ich mal, vielleicht öffentlich irgendwie teile. Aber ChatGPT ist ja schon mal oder generell jedes LLM eine Stufe tiefer mit. Ich werd ja sehr viel persönlichere Dinge reden. Und woher soll ich wissen, welche Teile von den Dingen, die ich in 'ner persönlichen Konversation hab, irgendwie als weitere Merkmale genutzt werden werden, die dann auch per Ad getarget werden können. Aber da muss ich jetzt
Dennis
noch mal konkret nachfragen, weil ich hab bis zu verstanden, dass sie erst mal sagen, dass das nicht passiert.
Fabi
Genau. Und das ist immer nur der Tat, an dem ich zweifel. Sie sagen, ja, die Konversationen bleiben privat, aber was heißt das? Also es ist keinerlei Merkmale aus meinen vergangenen Konversationen und das bezweifle ich sehr stark. So, so wie Sie's formuliert haben, ist es nämlich meiner Meinung nach nicht eindeutig. Und das ist ja auch 'n bisschen dieses so, ich hatte ich fand's ganz interessant, Theo hatte auch darüber in einem Youtube von sich gesprochen, hat noch mal als Beispiel gebracht damals die, Signal hat er ja mal probiert, 2021 Werbung auf Facebook zu schalten oder generell über Meta auf den verschiedenen Plattformen und hatte sozusagen getarget Ads gemacht, verschiedene Gruppen und hat den sozusagen ausgespielt oder wollte ihn anzeigen. Hier so zum Beispiel, die die hier war der Beispiel, wo drinsteht so, Du hast diesen Ad jetzt bekommen, weil Du grade eine neue Pilateslehrerin bist, die total auf Cartoons steht und darüber nachdenkt, eine LGBTQ Adaption zu machen. Und so, was sie gesagt haben, wir können genau darauf target sind und wir zeigen's nur diesen Leuten an und das mein ich damit mit Merkmalen. Also werden solche Formen von Merkmalen rausgezogen, auf die ich am Ende es noch mal runterbrechen kann, sagen kann, wenn jemand nach Schuhe sucht und diese Merkmale hat, dann zeig's an. Und das ist der Part, den ich bezweifle, wo wir landen werden, weil ich nicht glaube, dass es dabei landen wird, dass wir nur nur der Kontext aus der einen Anfrage dafür genommen wird.
Philipp
Nee, ich mein, allein in deiner einen Anfrage, wenn Du hier das aktiviert hast, hat das Modell ja Informationen oder Kontext aus anderen Chats. Also ich glaub, ich ich würde einfach mal warten. Ich mein, das kommt ja erst mal nicht in die EU. An sich finde ich das in Ordnung, dass sie Ads schalten für, wenn Du Dinge kostenlos nutzt. Weil jeder weiß, wenn Du was kostenlos ist, dann bist Du mehr oder weniger das Produkt. Und man kann's ja einfach umgehen, wenn man bezahlt und sagt, hey, nee, ich möchte das nicht.
Fabi
Ja, also genau, das eine die Frage ist, ob's halt sozusagen okay ist. Die andere Frage ist trotzdem, was macht's mittelfristig damit, dass die Leute, also bringt's halt die Leute dazu zu kaufen? Werden's die Leute okay finden, dass sie ihre privaten Dinge teilen und dass für Werbung ausgenutzt wird so. Da bin ich halt mal gespannt drauf. Was hat das für einen was hat das für einen Einfluss auf Sie als als Provider, als für den persönlichen Assistenten so. Und das ist ja das, weshalb ja auch eigentlich Sam Ortman gesagt hat, so, er sieht's als Last Resort des Businessmodells. Deswegen sehr interessant, dass wir's jetzt Anfang 2026 2026 als Thema haben. Und ich bin sehr gespannt. Also wird es das Neue normal? Philipp, kann gut sein, dass Du recht hast. Kann auch sein, dass es, wenn wir uns in einem Jahr den Share angucken vielleicht und irgendwie die generativen Anfragen, vielleicht dieser Move mit Werbung eher nicht zuträglich war? Und mal gucken, ob die anderen nachziehen.
Philipp
Ey, ich glaub, es ist immer noch eine für den normalen ChatGPT Nutzer 'n hoher Unterschied zwischen, ich muss 20 Dollar im Monat zahlen oder ich kann das kostenlos nutzen und seh ab und an eine Werbung. Also ich glaub, wahrscheinlich wir in der EU sind da 'n bisschen sensibilisierter, aber ich kann mir gut aus vorstellen, dass in der USA vor allem die wenigsten Menschen das interessiert. Und an sich Werbung ist ja nichts Schlechtes, wenn ich wirklich irgendwie versuch, Informationen rauszufinden und dann bekomm ich das Produkt vorgeschlagen, was da irgendwie dazu passt, dann kann das ja auch 'n Stück weit eine Hilfe sein. Klar ist es meistens nicht so vorteilhaft für den Nutzer, aber
Fabi
ja. Genau, Sie müssen halt gucken, dass sie also, dass sie halt das Vertrauen immer anständig verspielen, ne. Gleichzeitig haben wir unsere letzten Folge über Chat GPT Health unterhalten. Sie möchten gerne, dass wir alle unsere Health Daten da hochladen und ich muss Ihnen vertrauen, dass das komplett voneinander getrennte Bereiche sind und meine Health Daten nicht am Ende auch. Also sie werden ja so, also wenn wir uns mit, wenn wir jetzt irgendwie auch mit Metern so was vergleichen, potenziell so viel mehr Informationen noch über uns haben, so viel persönlichere Informationen. Und deswegen bin ich ja immer gespannt. Ich also es ich kann mir auch gut vorstellen, dass es dass es vielleicht am Ende das Neue normal wird so und wir es eher in der EU diskutieren so, aber es ist schon noch mal eine Stufe krasser, in was sie potenziell reingehen könnten.
Dennis
Ja, aber ich glaub, da ist das potenziell und ich, also wie ich es gelesen hab, die Veröffentlichung davon würde ich schon sagen, Sie sind da im Moment extrem vorsichtig und Sie werden erst mal darauf achten, dass Sie das dass Sie das nicht machen und dass Sie nicht zu viel Kontext ziehen. Und dann wird man sehen, wie wertvoll das ist Ah, erst mal. Ja, wie notwendig es ist. Na ja, in EU, also EU ist ja auch reguliert, da können sie's ja auch gar nicht einfach so machen. Also ich glaub, ne, da da sind noch mal andere Hürden, die da kommen. Ja.
Philipp
Willcy. Ist es auch nur eine Methode erst mal, Leute abzusell. Also kann ja auch sein, dass sie sagen, hey, stellst drauf, wir zeigen halt irgendwas an, damit was angezeigt ist, machen da 'n bisschen mehr Geld und schauen, ob wir dadurch mehr Menschen dazu bewegen können, sie in einen Plan reinzubekommen.
Fabi
Auf jeden Fall, glaub ich, ist das Teil, auch ein Teil der der Strategie dadrin, ja. Mal gespannt. Also wenn wir die ersten Werbung in der Wildnis sehen, in der EU Wildnis, wahrscheinlich noch ein Weilchen.
Philipp
Ah ja, wir sind ja alle nur noch in VPN unterwegs.
Dennis
Gut, machen wir weiter mit, bekannt geworden als. Philipp, was ist das?
Philipp
Ja, also es ist interessanterweise, weil ich hab's schon vor 2 Wochen, 3 Wochen gesehen und ich kenn auch Pete, den Entwickler, aber zumindest in meiner Bubble ist es übers Wochenende komplett explodiert, weil alle irgendwie sich MacMenis bestellen und jetzt zu Hause AI Zugriff geben, vielleicht ganz kurz kurz ist 'n Personal AI Assistant und man lässt dann auf seinem eigenen Device laufen. Das heißt, der Gedanke ist, ich hab irgendwie zu Hause wie son Art raspberry Pi, alten Computer, kann mein mein normaler PC sein oder eine Cloud VM. Und ich installier Cloud Bot darauf und Cloud Bot ist son bisschen wie Cloud Code oder Cloud Co Work oder Chat GPT, nur hat es Zugriff auf das Device und der Kommunikationschannel sind Apps oder Dienste, die wir generell nutzen. Also der Gedanke in der Cloud Bot ist, ich installier es auf 'nem separaten Server, wo das machen kann, was es möchte. Heißt im Sinne von Server Browser starten, Terminal Dinge ausführen, speichern. Aber ich kommunizier mit dem über Whatsapp oder über Telegram oder über Google Chats, Slack, was auch immer. Und es funktioniert so, dass hat 'n Gateway und dann verschiedene Interfaces oder Messaging Channels davor. Und je nachdem, also ich kann das auch irgendwie mit Telegram und Whatsapp gleichzeitig nutzen. Ich schick eine Nachricht, dann geht es zu diesem Gateway und das Gateway prüft dann erst mal, was so, sag ich mal, zur Verfügung ist, woher das kommt. Und dann geht es in sone Art Agent Runner, so ähnlich wie Cloud Code. Es funktioniert nicht nur, wie der Name vermuten lässt, mit Cloud, sondern mittlerweile auch mit Open AI, mit Gemini, mit Open Source Modelle wie Chemie oder anderen sogar Olammer funktioniert. Das heißt, wenn ich irgendwie zu Hause GPS hab und alles lokal ausführen möchte, kann ich auch Cloudbot damit nutzen. Und der Agent hat dann Zugriff zu Skills, zu Tools, zu Browser, zu allem Möglichen. Und ganz viele Leute haben angefangen halt, das zu nutzen. Und was sehr interessant find ich, ist, ist, dass man auch Triggers hat. Das heißt, ich kann irgendwie bei Whatsapp schreiben, hey, bitte ab sofort prüfe jede Stunde, ob mein Zug irgendwie Verspätung hat. Und dann wird im Hintergrund mehr oder weniger wie sone Art Cronjob auf dem PC abgespeichert, der dann in jede Stunde ausführt und wieder an schickt, der dann eventuell 'n Skill hat oder 'n API Call macht zur deutschen Bahn und prüft halt, ob der Verspätung hat oder nicht. Und dann bekomm ich proaktiv dann eine Whatsapp. Man kann auch so weit gehen und sagen, hey, bitte prüf jede Stunde, ob mein Zug Verspätung hat. Wenn der keine Verspätung hat, ignorier's. Wenn er eine Verspätung hat, bitte senden mir eine Nachricht. Und ja, aber auf jeden Fall viel Hype auf Social Media. Ich hab mir bisher nur den Code angeschaut, weil Cloud Bot ist Open Source, was ich sehr cool find. Das heißt, man kann wirklich reingehen und 'n bisschen versuchen zu verstehen, wie das alles funktioniert. Auch sehr cool, man hat 'n Art Plug in System. Also man hat nicht nur Skills, sondern man kann auch eigene Plug ins schreiben, wenn man irgendwie sagt, keine Ahnung, bei uns auf der Arbeit nutzen wir nicht Slacks, sondern eine Open Source Slack Alternative könnte ich relativ easy 'n Plug in schreiben, wie der 'n Cloud Bot über diesen Channel kommunizieren kann. Oder wenn ich zum Beispiel irgendwie eine Art Smarthomeegerät hab mit 'ner Webcam, dass ich halt mehr oder weniger das Versprechen von Siri und Alexa und allem anderen jetzt zu Hause auf 'nem Device ausführen kann. Und die Beispiele, die man auf Social Media sieht, sind echt cool, manchmal auch 'n bisschen unnütz. Der Ersteller, also war gestern in dem Podcast. Was er, er für ihn so richtig beeindruckend war, ist, er hat eine Sprachnachricht über Whatsapp an geschickt und hat dann innerhalb von einen paar Minuten eine Antwort bekommen. Aber er hat nie Support für Sprachnachrichten bereitgestellt. Und er hat dann halt gefragt, hey, wie hast Du das gemacht? Dann meint er so, der Cloud Bot halt, hey, ja, ich hab in der Nachricht 'n gefunden, aber der hatte keine Pfeilendung. Dann hab ich den von dem Pfeil angeschaut und dann hab ich gesehen, dass es halt 'n Audiofile ist, hab FFMPEG genutzt und das umgewandelt und dann die halt eine Antwort geschrieben. Und das ist halt dieses, hey, im Sinne von, mein Modell hat Zugriff zu 'nem Terminal und zu allem, wie man einen Computer benutzt und findet selber raus basierend auf dem User Input, was ich als Nächstes tun soll. Und ja, ich als Nächstes tun soll. Und ja, also ich werd's definitiv auch am Wochenende testen. Ich hab beide jetzt letzte Woche keine Zeit gehabt und ja.
Fabi
Klingt doch eigentlich damals noch was für dich, oder? Warum hast Du's noch nicht ausprobiert?
Dennis
Ja, stimmt schon. Ich ja, ich wollte vorher schon sagen, so eigentlich was, was ich ja auch sofort machen würde, aber irgendwo hat's mich noch nicht so 100 Prozent irgendwie abgeholt. Das Ding ist halt, also ist die halt die die Vorstellung so, es ist sowieso ein privat eingerichteter Rechner und von daher sind da all meine Zugänge und so was drauf. Weil sonst wär doch im Moment auch sone
Philipp
Ja, okay. Kurzfristige
Dennis
Million Dollar Idee einfach zu sagen, okay, warum machst Du das jetzt grade nicht per in der Cloud verfügbar? Also Du könntest dich ja auch einfach Also so. Das gibt's
Philipp
es gibt schon über Unify, Railway und die ganzen anderen Neo Cloud Start ups gibt's mittlerweile One Click Deployment Option.
Fabi
Okay.
Philipp
Du möchtest es nicht auf deinem Rechner machen, weil im Sinne von, Du gibt's dem Agent mehr oder weniger alle permissions. Also es gibt und er kann tun, mehr oder weniger, was er möchte. Das heißt, er kann auch irgendwas entfernen oder sonst was. Deswegen eventuell nicht auf deinem normalen PC machen und den den Hype, den viele sehen, ist halt oder die, die sie nicht gesehen haben, ist, er hat auch Zugriff auf Codecs oder Cloud Code an sich. Das heißt, viele Leute oder Beispiel, die ich gesehen hab, ist so von wegen, hey, Du arbeitest tagsüber an 'nem SPAC und dann schreibst Du halt abends im Bett noch eine Whatsapp, hey, bitte schau da und danach, nutzt dann Cloud Code und. Und dieses Versprechen, hey, der arbeitet über Nacht alleine, ist das, was ich zumindest beim vielen gesehen hab von von den Leuten, die's genutzt haben. Und warum Du's zu Hause machen möchtest, ist, Du hast eine IP Adresse, die normal aussieht. Also wenn Du auf Amazon irgendwie eine VM startest, dann hast Du ja eine Amazon IP Adresse. Wenn Du dann irgendwie 'n Browser nutzen möchtest, das heißt irgendwie Chrome Headless oder generell Chrome wirst Du von den ganzen sofort erkannt, weil Du eine Amazon API Adresse hast. Das heißt, wenn Du irgendwas mit Browserautomatisierung machen möchtest, ist es viel, viel schwieriger, eine Cloud VM zu nutzen. Klar, man könnte irgendwie wieder mit und VPN Tunnel über 'n Proxy von zu Hause aus dann ins Internet gehen, aber der Gedanke einfach, dass ich zu Hause hab. Ich hab auch Beispiele gesehen oder Skills gesehen, die dann zum Beispiel mit Philips Hugh funktionieren. Das heißt, wenn dein Device, worauf läuft, in deinem eigenen Heimnetz ist, kannst Du halt auch auf diese Dinge dann zugreifen und ihn halt dann irgendwelche Routinen oder andere Dinge umsetzen lassen. Und da es Open Source ist, kann man wirklich auch selber reinschauen und sich überlegen, hey, kann ich irgendwas lernen? Kann ich irgendwas selber hinzufügen? Es gibt viele Beispiele und halt auch schon eine echt krass wachsende Community und es explodiert aktuell 'n bisschen, weil klar, das ist son bisschen dieses Versprechen, was ChatGPT eventuell hätte sein sollen. Wie bei allem viel Hype dabei. Weiß jetzt nicht genau, wie das für alle Tasks ist oder was passiert, wenn dein Server mal down ist. Ich hab ganz viel Kritik gesehen, vor allem im Security Bereich, weil ganz viele Leute halt jetzt anfangen und Devices, die zu Hause sind oder auf in in der Cloud laufen, plötzlich im im mit dem Internet zu verknüpfen und dann ganz oft irgendwelche Portzahl einfach mit freigegeben werden und Du halt sonstige Dinge machen kannst. Und dein braucht ja gewisse, mit deinen Daten zu interagieren. Und ist halt eine große Gefahr, dass darüber durchaus einige Leaks passieren können.
Dennis
Ja, Passo andere an sich find ich's
Philipp
eine coole Idee.
Fabi
Ja, würd ich's auch sagen. Ich glaub ja, da ist, gibt's doch, glaub ich, jetzt, glaub, vor vor 5 Minuten kam auch 'n Beitrag von onePassword darüber, die sich, glaub ich, genau da son bisschen reingehen wollen und Ja, ich mein Problem und wir, Du kannst das über onePassword machen und darüber werden diese secrets managen. Und er hat darauf Zugriff und hat sone gleiche mit onePassword.
Philipp
Das, es gibt eine, also man kann ja auch generell die das, also warum vielleicht die Leute Mac Minis kaufen, ist, weil Du auf Mac halt die Mac Apps dann halt hast natürlich. Das heißt, er kann iMessage nutzen oder halt auch Notes und andere Dinge, aber auch dann den Passwortmanager, der bei per Mac mit integriert ist oder irgendwie so was. Und vor allem in den USA ist halt iMessage der, sag ich mal, Kommunikationsgender. Also die sind nicht, sag ich mal, wie wir in Europa oder auf Whatsapp unterwegs, sondern da hat halt gefühlt jeder iMessage beziehungsweise Android supporte, der jetzt auch dieses RFC, dass Du zwischen Android und iPhone über Messages Textnachrichten schreiben kannst. Und ja. Ich find's auf jeden Fall 'n interessantes Konzept. Es ist Open Source. Es gibt auch, also hatten wir ja, glaub ich, schon mal in den News als Start-up, die machen so was Ähnliches. Es gibt auch andere Start ups, die das als Hostd Version bereitstellen. Das Interessante hier ist halt einfach dieses Basteln, sag ich mal, in Anführungszeichen, wenn man irgendwie 15, 20 Jahre zurückgedacht hat, wo der Raspberry Pi rauskam, hey cool, ich hab jetzt daheim 'n kleinen PC, der irgendwelche Ioden ansteuern kann oder so was. Das ist halt jetzt 'n bisschen im Sinne von, hey, ich hab etwas, was ich laufen lassen kann, der dann mein Smarthome Assistant son bisschen ist. Ich glaub, wenn halt Google, also wenn die ganzen Smart Devices, die wir zu Hause haben, besser werden, dann ist das mehr son, aber ist auf jeden Fall 'n bisschen eine Vorschau, wo's hingehen wird dieses Jahr, glaub ich.
Dennis
Ja. Ja, und vor allen Dingen
Fabi
ist dann erweiterbar. Hab Du's vorhin gesagt, wieder
Philipp
Okay, 1 nach dem anderen.
Dennis
Ich bin 'n bisschen mit dem Internet verzögert, deswegen rede ich heute die ganze Zeit bei Fabi rein. Sorry. Ich meine, das ist halt son bisschen erweiterbar als jetzt, weil wir zum Beispiel hatten, da waren halt irgendwie eine, das hatte ja E-Mails und vielleicht noch Kalender, aber da war's halt begrenzt. Und dadurch, dass halt einfach auf einem rechnen Du kannst ja in der Theorie einfach auf alles, was Du irgendwie nutzt an deinem Computer, halt den Zugriff geben so. Und das ist halt dann noch mal 'n starker Unterschied in meinem Fall. Genau.
Fabi
Und aber ist bei den Hostelvarianten klar? Da hat
Philipp
hat mir noch nicht gedacht, wie
Fabi
wie jetzt genau dann die Authentifizierung mit eben diesen Services, die's sehr spannend machen, funktioniert so? Also Also ich
Philipp
hab mir das mit, ich hab halt Philips Juglybern zu Hause. Ich hab mir das angeschaut, da gibt's 'n Ziel dafür und Du müsstest dir schon, also es ist jetzt nicht, ich klick 'n Knopf und es funktioniert. Und darauf ist Cloudboard auch nicht ausgelegt. Das heißt, Du musst schon für viele Dinge dich 'n bisschen hinsitzen und versuchen, entweder 'n Developer Account zu machen, dich auf deiner Hugh Bridge irgendwie einzuloggen und 'n erstellen. Zum Beispiel bei Whatsapp wird mehr oder weniger das Whatsapp Webprotokoll im Hintergrund genutzt und nicht wie eine neue eine neue Handynummer, die dafür genutzt wird. Für andere Dinge bei Slack und so musst Du dann halt irgendwie eine App mit installieren und hinterlegen und 'n Webhoch machen. Also es ist nicht dieses, es ist für Entwickler, für Bastler. Ich glaub, deswegen kommt's auch sehr gut an. Viele Leute probieren's. Viele Leute probieren's auch und scheitern. Also der Hype ist schon extrem, zumindest den ich jetzt gesehen hab die letzten Tage. Ich denk, das wird 'n paar Wochen wieder bisschen weniger werden. Es ist aber 'n supercooles Projekt und wenn man sich damit beschäftigt, gerne mal reinschauen. Das Interessante ist, es hat viele Authentifizierungsmöglichkeiten. Also ich hab auch irgendwie gesehen, man kann seine oder nutzen. Man kann's natürlich mit Open Source Modellen auch nutzen, die dann irgendwie auf laufen oder halt mit Olammer klar, wenn ich halt zu kleineren lokalen Modellen geh, wird's die Erfahrung wahrscheinlich nicht so gut sein wie mit irgendwie jetzt den Foundation Models. Aber auf jeden Fall mal interessant auszuprobieren oder auch reinzuschauen, damit man einfach 'n Gefühl dafür bekommt, okay, wie funktionieren diese eigentlich? Weil Cloud Code ist ja, Gemini und sind zwar Open Source, aber halt sehr für Code orientieren. Da hat man doch 'n relativ gutes Verständnis dann.
Fabi
Ja, interessant, auf jeden Fall. Und hattest Du übrigens, also hatten wir ja am Anfang gesagt, warum jetzt eigentlich und nicht mehr?
Philipp
Ach so, nee. Ja, Cloud Bot wurde mit CLAWD geschrieben. Jetzt, weil er hat eine Tradeanfrage von anthropic mehr oder weniger bekommt zum Umbenennen. Ich glaub, es war für ihn auch gar kein Thema. Ich weiß jetzt nicht, wie weit die gegangen sind, aber 'n Stück weit nachvollziehbar, dass Leute nicht denken, hey, das gehört eventuell zu. Steh ich auch in der
Fabi
Richtung. Ja. Ja, interessant. Dann können wir vielleicht in der nächsten Mal gucken, wer's sonst ausprobiert hat bis dahin in der nächsten Folge noch mal drüber quatschen.
Philipp
Ja, ich, also nächste Woche ist jetzt zwar in hier oder 2 Wochen.
Fabi
Ja, da musst Du aber, da muss der Podcast aber per CLI steuerbar sein.
Philipp
Ja, es, also es gibt Twilio und dann Text to Speech und Speech to tex. Ich glaub, das kriegen wir hin.
Fabi
Sehr gut. Das find ich gut. Das Sommer das Sommer Anspruch in 2 Wochen.
Dennis
Ja. Ja. Ja. Gut. Meine User ist, glaub ich, kleiner, hab ich das Gefühl. Es geht Skills und es ging gegenüber Hypes son bisschen. Da haben natürlich irgendwie Firmen mit 'ner gewissen Sichtbarkeit den Vorteil, dass dass sie direkt irgendwo da 'n bisschen Aufmerksamkeit drauf lenken können, denn so gesehen ist es nichts Neues. Es gab es auch vorher schon 'n bisschen, aber jetzt haben wir halt ein zentrales, eine zentrale Anlaufstelle, die ist ein bisschen besser organisiert. Worum geht es? Russel hat ein ein veröffentlicht, für Agenten ein offenes Skill Ökosystem zu kreieren. Und das heißt, es ist einfach
Philipp
Haben wir jemals erklärt, was Skills sind?
Fabi
Wir haben sie in der einen in der Folge, als es bei einen Trople rauskommt, da haben wir drüber gesprochen, ja, grundsätzlich. Gut. Also Vergleich zu MCP und Skills, vielleicht haste ich's sogar. Wie lange ist es her? Aber Du kannst es uns gerne noch mal machen, Dennis.
Dennis
Am Ende ist es ja son bisschen, wo jetzt so der Gesamtshift ist von, okay, ich rette mit in Bots und ich versuche irgendwie, was hin zu eben Agenten, die irgendwie was machen, ist es ja irgendwie auch 'n bisschen komplizierter zu geben, denen noch weitere Funktionalitäten zu geben. Also Tools an die Hand zu geben, mit denen sie dann irgendwie arbeiten können. Und klar gibt es irgendwie die MCPs, das gab's auch schon die verschiedenen Evolutionen. Dann haben wir gesagt, okay, wenn Du diese Definition, was kann denn überhaupt alles dieser dieser Server oder dieser Dienst, mit dem ich zusammenarbeite, dass man da dann schon schnell den kompletten Kontext irgendwann vollgeblasen hat, weil man all seine ganzen MCP Server da drin hatte. Und Skills sind noch mal son bisschen eine andere Ebene, die eigentlich, ja, es einfach nur 'n bisschen auch wieder vorhersehbarer oder vorhersagbarer machen, und zwar indem sie unterschiedliche Skills kapseln in Markdownfiles. Und das Format ist relativ oder ich glaub, irgendwie oben ist YAML und und 'n Marktdown, weiß ich nicht genau, aber relativ simpel. Du hast oben eine Beschreibung und 'n kurzen Text und da drunter dann eben ausführlich Guardrails, Informationen, weitere Links zu Dokumentation. Also einfach so, hier ist eine komplette schöne, agentgerechte Beschreibung, wie etwas zu machen ist, eben nicht jedes Mal irgendwie das Rad neu zu erfinden, in falsche Richtungen zu laufen. Du kannst beispielsweise nutzen, mit Teams 'n gewissen Coding Standard besser einzuhalten oder auch für irgendwelche Submodule das zu machen. Und genau, diese Skills ist letztendlich jetzt eben die Möglichkeit, dort open source welche zu veröffentlichen. Und ja, da gibt's, also gibt's sehr allgemeine irgendwie, keine Ahnung. Es gibt so der am meisten installierte bis jetzt nennt sich. Das heißt, es ist einfach so, alles, was es an Inside, so wie arbeitet man, ist in diesem in dem Skill mit drin. Und wenn Du halt irgendwie 'n Breakprojekt hast, dann kannst Du die mit reinpacken und hast halt die Möglichkeit, genau, von den Best Practices, die dort zusammengetragen wurden, zu profitieren. Anderes sehr populäres Beispiel, was da rausgekommen ist, war. Da haben wir, glaub ich, auch schon mal häufiger drüber gesprochen. Son Tool, was über Programmierungen, also über über Code Videos und Videoschnipsel erzeugt. Und da auch son Beispiel, es gibt da diesen Skill, der halt, ne, dann deinem Agenten genau sagt, okay, wie das Ganze funktioniert. Und an einem Beispiel hat halt der, weiß nicht, CEO, CTO, wie auch immer von, dann einfach Claude gefragt, hey, ich brauch 'n kurzes Video, was son Intro macht zu Skills, was im Terminalfenster ist. Und das ist halt einfach jetzt 'n komplett fertig gerettetes Video, was was dann über kam, wo's halt gar keine weitere weiteren Informationen mehr gab, weil halt all dieses Knowledge sozusagen, was Du brauchst in diesem Skill verpackt ist. Und ja, so
Fabi
wir haben da relativ über Skills unterhalten, dann meinten wir das Beispiel mit PDFs und das ist, glaub ich, auch 1 der sogar auch der der relativ top bewerdete oder installierten Skills auf Skills Punkt s h, so diese Grundoperation, Skills auf Skills Punkt s h, so diese Grundoperation, ne, also PDF und das im Endeffekt sind's einfach kleine Python Skripte, die sozusagen dann verschiedene Skills im Rahmen von PDF zur Verfügung stellen. Ich glaub, das war damals unser Beispiel, als wir über Skills gelten.
Philipp
Ja. Das das Interessante oder der große Unterschied zu ist das Konzept von progressive Discluure, also im Sinne von, wie diese Tools dem Modell bereitgestellt werden. Bei Skills basiert es auf dem Namen und der Beschreibung. Das heißt, das Modell hat eventuell 50 kleine Titel und Beschreibungen zur Verfügung. Und basierend auf dem Kontext dann entscheidet er selber, hey, der Skill, ich weiß nicht, der User fragt, hey bitte, bohne. Dann sieht er, ah okay, ich hab hier 'n Skill. Mein Prompt sagt, wenn ich irgendwas in dem Bereich mach, soll ich den Skill lesen. Der erste Schritt ist dann sozusagen, das Modell liest dieses Skill dort m-d-File, wo dann Kontext drin ist und eventuell in diesem Skill oder sind dann noch weitere Linkungen zu anderen Dokumenten oder zu Skripts und dann versucht es, daran zu arbeiten. Und dieses Konzept ist halt dieses das Modell selber, welche Tools, Skills ich benötige, eine Aufgabe zu lösen. Und bei dem, was Du zu WhatsApp gebaut hast, ist halt auch eine, das heißt, Du hast mehr oder weniger 'n Skill für diese Skills Plattform. Und das Modell kann dann selbstständig auf diesem remote Skill Repository anfangen, eigene Skills zu suchen oder dann zu installieren. Das heißt, 'n bisschen, wie wir bei dem Cloud Bot Beispiel hatten, hey, ich hab irgendwie eine Sprachnachricht und das Modell hat selber rausgefunden, wie ich's das umwandeln kann. Hier ist bisschen dasselbe Konzept, wenn ein Modell die oder die Tools aktuell nicht zur Verfügung hat, aber wissen darüber, dass ich in diesem nachschauen kann, ob es eventuell Tools für mich gibt, wie ich das die Aufgabe lösen kann, dass es dann auch selbstständig diese Skills installiert und dann halt mehr oder weniger dieses Konzept von Continuous Learning mit umsetzt. Das heißt, wir haben nicht mehr das Problem, dass Modell halt Dinge kann, die es im Kontext hat und die er's gesehen hat im Trainingsbereich, sondern dass es selber kann, wie ich 'n Problem lösen kann und dann natürlich auch das wieder vielleicht in seinem lokalen Skillordner speichern.
Dennis
Yes. Ja, bin mal gespannt. Also irgendwie, ich war so, als ich danach gelesen hab, okay, pro Stunden später waren schon 20000 auf dem Top Ding, jetzt sind's irgendwie 60000. Das ist irgendwie seitdem es dann war, gefühlt nicht so viel mehr geworden. Aber gucken wir mal, wie wie's sich etablieren kann, ja. Das ist irgendwie auch ein Teil davon, dass so was dann funktioniert.
Philipp
Will trotzdem sagen, man muss 'n bisschen vorsichtig sein. Also Kontext 7, was vielleicht 'n Leuten bekannt ist, durch deren MCP Server für verschiedene SDK Dokumentation, hat auch 'n Skills Repository. Und die haben schon verschiedene Skills gefunden mit, wie bei allem Skills sind oder auch Skripte. Das heißt, irgendwelche Skills von irgendwo in meinen LLM Kontext zu nehmen, kommt oder kann mit Problemen ein ein einhergehen. Und bisher wurden Skills vor allem für, für Geminary, für andere hauptsächlich auf GitHub gepublished. Da dessen Standard ist mit, hey, hier ist 'n oder 'n oder geh ich stark davon aus, dass sie einfach erst mal GitHub gescrapt haben und dann alles mal rübergezogen. Und im Hintergrund weiß ich auch gar nicht, wie's genau funktioniert. Ich weiß nicht, ob Du irgendwelche Informationen hast, wo die Skills dann gespeichert sind oder ob das auch über GitHub registriert wird und ich einfach nur das Downloading und Uploading darüber abbildet.
Dennis
Ja, was ich euch noch mal fragen wollte in dem, nur son bisschen in dem Zuge, aber weil ich wir hatten im Bewerbungsgespräch tatsächlich gestern und da sprach einmal davon so, ja, ich muss GitHub. Und dann, als ich das nur so gehört hab irgendwie oder sorry, GitHub Co Pilot, da dachte ich so, okay, jetzt würden wir 'n bisschen altbacken, so Code Completion, keine Ahnung was. Er meinte aber so vom Wording, nee, Copilot schon dann auch die CLI. Und dann war aber darin das Modell, was er nutzte, Claude oder hier Sonat 4 5 oder Opos weiß ich nicht, Opos 4 5. Und dann ist so, dann war für mich so, okay, wenn ich in all diesen CSIs jetzt auch gerade wieder die ganzen unterschiedlichen Modelle dann auch wieder nutzen kann, Wie viel würdet ihr sagen, steckt denn im Moment in dem CP Part und wie viel steckt in der Magie des Modells? Also macht's jetzt irgendwie 'n großen Unterschied, ob ich Germani, Copilot, CLI oder Clay CI nutze? Oder also was ist da noch ein weiterer ein weiterer Magie in dem Part?
Philipp
Also ich würd sagen, ist son Ding für 80 20 bei mir zumindest. Also 80 Prozent ist das Modell, 20 Prozent ist die CLI. Der große Unterschied ist, wenn Du jemand bist, der das Modell kreiert und die oder den Agent Harness, weißt Du ja viel besser, wie gut ein Modell ist, was für Charakteristiken das hat, mit welchem Tool das am besten läuft. Du machst generell viel mehr Evaluierungen und Tests. Das heißt, ich würd immer das Modell mit dem zu nutzen, das heißt irgendwie Codex mit Codex oder mit Code Code oder Gemini mit Gemini. Wenn ich mich auf 1 festlegen müsste und dann hast Du ja immer noch Curser oder Anti Gravity, ich hoff, sie hat diesmal richtig ausgesprochen. Ja, total. Oder GitHub GitHub Copilot oder halt, wenn Du halt hin- und her wechseln kannst. Wir haben ja das das Thema, dass alle ein bis 2 Monate 'n neuer Provider kommt mit 'nem neuen Modell, was besser als das andere Modell ist. Die Thematik ist klar, wenn ich irgendwie halt jetzt claudd Code nehme mit mit der Max Subskription hab ich 200 Dollar im Monat, dann will ich nicht einfach kurz noch mal zusätzlich Codecs kaufen oder so. Also da hat natürlich Copilot oder Cursor halt den Vorteil, dass ich zwischen den Modellen hin- und her switchen kann. Allerdings muss ich sagen, das, was ich immer zu Co Pilot hör, ist nicht das Beste. Also Gefühl des oder die anderen sind immer 'n bisschen besser. Du hast da jetzt auch im Bereich hast Du ja Code, welches mit allen Modellen funktioniert, unten sogar mit der GitHub Co Pilot Subscription. Das heißt, wenn ich Co Pilot Kunde bin, kann ich Open Code nutzen und mich darüber anmelden. Oder ich glaub auch, wenn ich ChatGPT hab, kann ich mich über Open Code anmelden und das dann nutzen. Deswegen, ja, aber ich muss auch dazu sagen, ich hab zum Beispiel GitHub Co Pilot kostenlos, weil ich viel im Open Source Bereich mache. Und dann stellt sich ja auch die Frage, hey, wenn ich das kostenlos bereitgestell, warum sollte ich dann noch mal 20, 200, 400 Dollar im Monat für andere. Aber
Dennis
wie funktioniert da im Moment die Abrechnung? Also wenn Du dann wenn Du da irgendwie hast und dann kannst Du darüber aber dein Modell nutzen oder musst Du da noch 'n hinterlegen?
Philipp
Nee, nee. In Co Pilot hast Du verschiedene Modelle drin. Also Du hast Modelle, Du hast Antropic Modelle und Du hast auch Gemini Modelle. Und Du hast, glaub, auch noch andere Modelle. Die sind alle Teil von GitHub, Co Pilot, jetzt, glaub ich, auch mit dabei.
Dennis
Und haben die spezielle dann negorchiert oder weil oder wie ist das Wie hat die Volumen und so
Philipp
was? Die haben Multiplikatoren. Also ich glaub irgendwie, aber als wo ich noch's weiß, war GPT-4-O-Mini war Multiplikator 0 x. GPT 5 ist, glaub, Multiplikator 1, Opus 4 war Multiplikator 2 oder irgendwie so was. Und darüber wird halt mehr oder weniger abgebildet, dass Du mehr Nutzen für 'n kleineres, schnelles Modell haben kannst oder weniger Nutzen für 'n größeres, langsameres und teureres Modell.
Dennis
Okay. Weil bei Cloud zum Beispiel kommt's kommt's ja nicht so richtig dahinter. Du kannst ja irgendwie diese Pricing Seiten zwanzigmal durchlesen und Du weißt immer noch nicht, was jetzt der Teamsplanded eigentlich tatsächlich beinhaltet, sondern nur immer so grobe Richtlinien, wie's denn wahrscheinlich von der Nutzung sein wird eventuell. Und da stell's mir noch mal schwieriger vor, in soner Partnerschaft das dann irgendwie vernünftig abzurechnen.
Fabi
Ja, und ich glaub, Sie haben ja auch gesagt, so bei dem bei dem Pro, Du hast auf jeden Fall unendlich mit g p-1 und g p-fünf mini und alle anderen sind dann in diesem Premium drin. Und dann, da hab ich's auch nicht gefunden, aber ich würd auch tippen, das ist so, wie der Philipp ja auch sagt, so am Ende, wie's ja auch bei Cursor oder so was dann Genau. Funktioniert hat, ne.
Philipp
Das Einzige, was ich gesehen hab oft ist, dass der Max Plan höhere Limits hat als irgendwie der Cursor Max Plan. Also es gibt immer wieder mal Leute, die sagen, hey, mein Nutzen in würde 2000 Dollar im Monat API Kosten entsprechen. Bei sind's aber nur irgendwie 500 Dollar oder irgendwie so was. Mhm.
Dennis
Okay. Judi, dann machen wir noch weiter mit einem, ja, weiß ich gar nicht, ob's 'n strategischer Wechsel von Microsoft ist. Aber auf jeden Fall geht's da neue Hardware. Philipp, was ist Maja 200?
Philipp
Maja 200 ist der Nachfolger von Maja einhundert und es ist eine AI Hardware. Also so ähnlich wie Google oder AWS Trainium ist Maja der AI Chip von Microsoft. Und da gibt's jetzt die den die Variante 200. Gleich ganz grob, es hat oder der Chip hat 216 Gigabyte HPM 3 I Memory, hat eine Memory Band von von 7 Terabyte die Sekunde und nach Angaben von Microsoft eine dreißigprozentigere bessere Preis pro Dollar Performance als Nvidia Blackwell b 200. Eine von 750 Watt im Verhältnis Blackwell B-zweihundert hat 1200 Watt. Ich glaub, das Interessanteste ist, es ist schon deployed in US Central Iowa, also auf Azure natürlich und US West 3 Arizona kommt als Nächstes. Es gibt keine VMs, dass man das einfach nutzen kann, aber man kann's über die Microsoft beziehungsweise Formely Azure AI Foundary nutzen. Es soll eine SDK geben bald, die man dann selber nutzen kann, halt mit eigene KI Modelle zu definieren, die dann halt für Maja werden und dann auf Maja laufen können. Und was wahrscheinlich am interessantesten ist, sie nutzen es für Microsoft 365 Copilot und Azure OpenAI Services Und es soll die primäre Hardware für OpenAI GPT 5 Punkt 2 sein, damit sie die Kosten pro Token reduzieren können.
Fabi
Das heißt, das ist wahrscheinlich auch das, was der Großteil von denen, die jetzt hier wahrscheinlich zuhören, am Ende möglicherweise merken werden mit Pricings, was die nächsten Modelle angeht, oder? Einfach nutzen ist es ja wahrscheinlich erst mal kein direkter Impact für die Leute, die ich mit uns, ich Philipp, ich nehm nicht mal mit rein auf unserem Niveau mit oder auf Art mit eher interagieren, oder? Würdest Du sagen, es hat einen anderen merklichen Impact, den wahrscheinlich dem wahrscheinlich jetzt zeitnah spüren werden?
Philipp
Ich glaub, wenn man, also es ist auf jeden Fall interessant, dass Microsoft halt nicht aufgibt. Also jetzt hat ja sowohl, also die 3 großen Public Clouds mit Google Cloud, Azure und Amazon haben ja ihre eigenen speziellen KI Chips und zusätzlich natürlich alle Nvidia. Und man hat ja eher das Problem aktuell, dass man keine Kapazitäten hat. Also es gibt ja ganz viele Unternehmen, Start ups, wie auch immer, die gerne mehr oder mehr TPUs hätten. Das heißt, mehr Konkurrenz ist immer gut für uns alle am Ende. Wenn Maja Chips so gut ist, dass Microsoft nicht nur NVIDIA Chips nutzen müsst, dann stehen die natürlich auch wieder in 'ner besseren Verhandlungsposition. Und mal schauen, also Traineeum beziehungsweise Influencia hab ich ja selber viel genutzt für Open Source Modelle. Wenn Maya oder die Maya SDK dasselbe, sag ich mal, hat in der Zukunft, kann das auch interessant sein für Unternehmen, die halt Open Modelle selber dann deployern oder managen.
Fabi
Und ich, mir war gar nicht, ganz klapp halt immer jetzt die Referenz zu den b-zweihundert, irgendwie gedacht, dass die b-zweihundert kann ich von Nvidia gar nicht. Sind's nicht die, also die, weil wir sonst ja immer bei den h-einhundert waren, oder?
Dennis
Ja, ja. Die haben die b zum Vergleich gezogen.
Philipp
Das ist schon zweieinhalb Jahre her. Also es gab h-einhundert und h-zweihundert, b 200 und wir haben auch GB 200 oder so was und b-zweihundert oder so was und b-zweihundert. Ich glaub,
Fabi
wir haben lange Zeit nicht mehr ins über GPUs zu uns unterhalten. Ich glaub, h-zweihundert war, glaub ich, die letzten Änderungen, die wir in der News vorgestellt haben, wo wir uns noch drüber unterhalten haben.
Philipp
Es gibt mittlerweile auch b 300, die bald kommt beziehungsweise das ist der letzte.
Fabi
Siehst Du mal.
Philipp
Genau. Ich glaub, was vielleicht ganz interessant ist, dass ja die Consumer GPUs eingestellt werden gefühlt. Also alles, was ich mitbekommen, ist, dass nur noch für AI Chips produziert wird und keine RTX, was auch immer für meinen GTA 6.
Fabi
Deswegen kommt GTA 6 nicht.
Dennis
Sehr gut. Und noch auf der gleichen, wir bereiten mit Vorsicht bei all den ganzen Sachen. Jan hat grad noch parallel bei uns im Slack gepostet über Clayd Bot, dass da auch noch 'n kleiner kleines Versehen passiert ist. Denn wie wir gesagt haben, da war ja der Trademark, der von Anthropic kam. Und dann haben sie gesagt, okay, wir können das Ganze umbenennen. Und dann wurde allerdings 'n Fehler gemacht, denn gleichzeitig wurde der alte Name released und der neue angelegt. Und innerhalb von hier steht 10 Sekunden haben Scamer dann auf GitHub und auf auf auf Ex das Handel übernommen, daraus dann einen Krypto Claydown zu machen, der insgesamt 16000000 Dollar dann bewertet wurde. Ja, und alles nur scambar.
Philipp
Ja, man muss dazu sagen, also der heißt der auf Twitter, glaub ich, hat, wird nicht gemocht von der Krypto Community. Ich weiß selber genau, warum. Er hat auch selber gesagt, dass er niemals was mit Krypto zu tun hat und dass es definitiv keinen Kryptocoin geben wird jemals von ihm und und allen Dingen, die er zusammenarbeitet. Und die haben's halt auch wahrscheinlich beobachtet. Also es gibt ja ganz, ganz viele Bälle von diesem und generell, also ich seh's meistens darüber, wenn Twitter Accounts gehackt würden. Ich hab auch letztens wieder 1 bekommen, beziehungsweise man kriegt ja generell viele E-Mails, die aussehen wie echt, dass sie dann den Account einfach übernehmen mit Phishing und dann irgendwie Elon Musk postet, hey, Deezer kreuen und let's go.
Dennis
Dann vielen Dank euch beiden, wieder für einige Insights. Heute Feedback wie immer an Podcast at wie immer an Podcast App programmier.bar, sonst wünschen wir euch 2 Wochen. Gucken mal, ob auf 4 noch vorher unterwegs bin oder irgendwie ins Gefängnis kommen, weil Mould Bot uns irgendwas in irgendeine schlechte Situation gebracht hat und wir das gar nicht wollten. Ja, das erfahrt ihr dann alles in 2 Wochen. Vielen Dank, bis bald, macht es gut.
Philipp
Tschau. Tschüs.

Speaker Info

  • Philipp Schmid Profile

    Philipp Schmid

    Philipp Schmid ist Senior AI Developer Relations Engineer bei Google DeepMind und arbeitet an Gemini und Gemma. Er hat es sich zur Mission gemacht, Entwickler:innen dabei zu unterstützen künstliche Intelligenz verantwortungsvoll einzusetzen. Zuvor war er Technical Lead und Machine Learning Engineer bei Hugging Face, einer Firma, die gutes Machine Learning durch Open Source und Open Science demokratisieren möchte. Der junge Nürnberger und AWS Machine Learning Hero hat sozusagen die deutsche Variante von ChatGPT entwickelt und darüber auf seinem Blog geschrieben. Checkt sie im Playground aus!

    Mehr Infos
Feedback