Talk Microsoft 365

Wir sprechen über alles aus der Microsoft 365 Welt und sehr oft über Microsoft Teams

Microsoft Build 2024 in der Analyse mit Ralf Richter

22.05.2024 87 min

Video zur Episode

;

Zusammenfassung & Show Notes

(Disclaimer: erstellt mit Chat GPT)

Hallo liebe Community,

In dieser Episode von Talk Microsoft 365 begrüßen Michael und Thorsten ihren MVP-Kollegen Ralf Richter. Ralf gibt spannende Einblicke in die neuesten Entwicklungen der Microsoft Build, teilt seine Expertise als Cloud Consultant und begeistert mit seiner Leidenschaft für alles rund um Azure und AI. Außerdem gibt es eine fast vergessene Challenge, das Geständnis eines Exchange-Programmierers und eine hitzige Diskussion über den neuen Team Copilot. Hört rein und lasst euch überraschen! 🎙️💼💡

Highlights:

00:00:16 - Willkommen & Vorstellung: Michael und Thorsten begrüßen ihren Gast Ralf Richter. 👋
00:02:00 - Challenge-Fail: Diskussion über die verpatzte Ankündigungs-Challenge. 🍺📆
00:04:11 - Ralf stellt sich vor: Ralf spricht über seine Arbeit und Projekte. 🛠️☁️
00:06:45 - Microsoft Build Highlights: Updates zu Custom LLMs, Multimodal AI und Azure AI Studio. 🚀🤖
00:19:00 - Azure AI Studio: Erste Schritte mit einer kostenlosen Azure-Subscription. 💻✨
00:36:00 - Copilot in Teams und SharePoint: Diskussion über den neuen Team Copilot. 🤝📑
00:54:10 - Microsoft 365 und Windows on ARM: Integration von Copilots in SharePoint und Zukunft von Windows auf ARM. 🖥️🔄
01:06:10 - Power-Plattform & Git-Integration: Neuigkeiten und Bedeutung der Git-Integration. 🧩🔗

Fun Facts:

Thorsten und der Exchange-Mythos: Thorsten sorgt für Lacher mit seinen angeblichen Programmierkenntnissen. 😂👨‍💻
Surface Laptop 6: Thorsten schwärmt von seinem neuen Surface Laptop 6. 💻❤️

Links & Ressourcen:

Ralf Richter auf LinkedIn: Profil von Ralf Richter 🌐
Microsoft Build Highlights: Book of News 📚
Azure AI Studio: Azure AI Studio 🔧
Power-Plattform Git-Integration: Git Integration in Power-Plattform 🛠️

Nächste Episode:

Seid gespannt auf die nächste Episode, in der Thomas Stensitzki zu Gast ist und über die neuesten Entwicklungen im Bereich Exchange spricht. Ein Muss für alle Exchange-Fans und solche, die es werden wollen! 📅📧

Call to Action:

Community Challenge: Helft uns, die passende Strafe für die verspätete Ankündigung zu finden! Schreibt eure Vorschläge in die Kommentare oder schickt uns eine Nachricht. 📝💬
Feedback: Wie hat euch die Episode gefallen? Was wollt ihr in Zukunft hören? Lasst es uns wissen! 👍🗣️

Abspann:

Vielen Dank an unseren Gast Ralf Richter für die großartigen Einblicke und an unsere treue Community fürs Zuhören. Bis zur nächsten Episode, bleibt neugierig und wissbegierig! 🤗📢

Diese Episode wurde präsentiert von Michael, Thorsten und ihrem MVP-Kollegen Ralf Richter. Bleibt dran für mehr spannende Einblicke in die Welt von Microsoft 365! 🎧🔍

Bis zum nächsten Mal! 🚀
Michael und Thorsten
-------------------------------------------------
Infos aus der Episode:
Ralf Richter - LinkedIn: Ralf Richter ☁️{/} | LinkedIn
Copilot + PC: Introducing the ultimate Copilot+ PCs – The all-new Surface Pro and Surface Laptop | Microsoft Devices Blog (windows.com)
Open AI on Azure: https://oai.azure.com/
Microsoft Build - Book of News: Microsoft Build 2024 Book of News

-------------------------------------------------
Link zum Blog findet ihr hier: https://talkm365.net
Auf Twitter unter: @TalkM365
Twitter Michael: @plemich
Twitter Thorsten: @thorpick
Link zum YouTube-Kanal: https://link.talkm365.net/YouTube
Link zum Teams UG - Meetup: https://link.talkm365.net/TeamsUGMeetup
Link zu Thorstens YouTube-Kanal (Quick-Tipps): https://www.youtube.com/c/ThorstenPickhan
-------------------------------------------------
Reference-Links:
Music Intro/Outro: Vacation - AShamaluevMusic.
Music Link: https://soundcloud.com/ashamaluevmusic/vacation
Music Background: Inspirational Corporate Ambient - AShamaluevMusic
Music Link: https://www.patreon.com/ashamaluevmusic
-------------------------------------------------

Transkript

Hallo und herzlich willkommen zum Talk Microsoft 365. Mein Name ist Michael und gemeinsam habe ich diesmal nicht nur mit Thorsten, sondern auch mit unserem MVP-Kollegen, dem Ralf Richter, über die Microsoft Build gesprochen. Ralf war so freundlich und hat uns einen sehr spannenden Einblick in die verschiedenen Themen aus der Build gegeben. Gerade weil er unter anderem auch Developer ist und sehr viel mit Azure zu tun hat, waren das sehr, sehr tolle Einblicke in Themen, in die wir normalerweise nicht so gut reinkommen. Darum freut es mich umso mehr, dass wir euch diese Episode des Talk Microsoft 365 präsentieren können mit unserem Spezialgast Ralf Richter. Und nun geht die Episode los. Viel Spaß dabei. Thorsten. Hallo Michael. Hallo, liebe Community. Herzlich willkommen zur aktuellen Episode des Talk Microsoft 365. Aktuell heißt, wir sind mitten in der Microsoft Build Woche und wir haben also einen leichten Wettbewerb, was die Livestreaming Sessions angeht. Es könnte sein, dass der eine oder andere Microsoft hier auch gerade irgendwas hält. Umso besser, dass ihr auch bei uns dabei seid. Schön, dass wir euch begrüßen dürfen. Und bevor wir gleich zu dem Thema Bild kommen und zu unserem Gast, das hat der Titel, glaube ich, schon sehr gut gespoilert. Thorsten, ich glaube, wir haben das erste Mal so ein beinahe Challenge-Fail gehabt. Ja, nicht nur beinahe, 100 Prozent, aber man könnte sagen, es war Feiertag, aber... Ja, genau. Ich wollte mich noch mit Feiertag rausreden. Okay. Was waren die Strafe dafür? Ein Kasten Bier, zwei Kasten Bier, du lädst die Community ein auf dem nächsten Event, zahlst alles an Essen und Getränke. Das können wir gerne machen. Dann müssen wir uns ein Community-Event raussuchen, wo es eh freie Getränke und freie Essen gibt. das ist ja eine lahme Nummer. Also pass auf, ich würde jetzt Müssten wir uns erstmal das erste Video anschauen und überhaupt gucken, was denn die Challenge überhaupt war. War das nicht mit Daten verbunden und bis Mitte des Jahres und drüber hinaus oder so? Und der eine hat das Datum und der andere nicht. bis Mitte des Vloggers und du das andere Datum oder so. Wir müssen uns die erste Folge angucken, hätte ich gesagt. Okay, vielleicht, genau, Aber sinnvoll ist. Nicht irgendwie Copilot-Lizenzen für alle oder so ein Quatsch. Genau. Macht auch was Sinnvolles draus. Ich mag das. Community, gebt uns doch mal bitte Input an der Stelle. Ansonsten, wir werden beim nächsten Mal die Challenge natürlich wieder aufnehmen. Wir werden das pünktlich wieder als Vorankündigung machen. Diesmal ist tatsächlich, weil der Montag diesmal ein Dienstag war, dass etwas verrutscht. So leicht kann es gehen. Jetzt haben wir... Drei Minuten schon mal erklärt, dass unsere Ankündigungs-Challenge erwartet wartet, sitzt auf heißem Kohlen, das ist auch nicht freundlich. Richtig, richtig. Wir wollen über die Microsoft Build sprechen und nachdem wir zwei ordentliche Pfeifen sind, was das Thema Developer angeht, Haben wir uns gedacht, wir holen uns jemanden hinzu, der sich damit auskennt und damit sage ich herzliches Hallo zum Ralf. Hallo Ralf. Vielen Dank. Hallo, Servus zusammen aus meinem Hotelzimmer hier im schönen Zwickau. Servus Community, Servus Thorsten und Michael. Grüß dich. Wir hatten ja schon ein paar Mal das gemeinsame Vergnügen, auch in diesem Format hier. Nichtsdestotrotz möchte ich dich bitten, dass du vielleicht ein bisschen was zu dir sagst, dich kurz vorstellst und dann starten wir in die Themen rein. Klar, gerne. Also, ihr findet mein LinkedIn-Profil bestimmt in den Shownotes. Mein Name ist Ralf Richter. Ich bin seit 25 Jahren im Geschäft für Softwareentwicklung und habe mich spezialisiert auf alles, was Cloud-Softwareentwicklung angeht. Ich betreue Cloud-Projekte, leite Teams und Projekte und so als Titel könnt ihr euch raussuchen, was ihr wollt. Ich glaube, der aktuellste ist der Distinguished Cloud Consultant. Und ja, meine Aufgaben habe ich da schon ein bisschen umrissen und bin halt auch Azure MVP seit 2018. Vier Jahre oder drei Jahre. Zusammen mit den Kollegen hier komme ich regelmäßig über den MVP Summit, zum Beispiel in Seattle, mit Michael noch den gemeinsamen Podcast. Außerdem betreibe ich die Azure Developer Community in München, also Azure Dev Munich und den Azure Developer Community Day. Der dieses Jahr am 3.12. in München und am 5.12. in Leipzig für euch stattfindet. Ein kostenfreies Event mit super vielen News, alles rund um Azure. Und auch die Kollegen Michael und Thorsten haben die Möglichkeit, ihren Speaker-Slot dort zu bekommen, um über ihr geliebtes M365 zu sprechen, Power-Plattform oder was auch immer. Das heißt, diese Konferenz hat den Hauptaugenmerk, einen Unterschied zu machen zwischen IT-Pro. Und Anwender-respektive Developer-Community. Das ist es, was ich so Daily Business und Community-wise mache. Cool. Dankeschön für den Einblick. Natürlich gibt es im Anschluss alles in den Shownotes oder wenn ihr den Podcast genießt, dann gibt es das direkt in den Shownotes. Die entsprechenden Links einmal zusammengestellt. Genauso wie das, was wir auch in der nächsten... Naja, was der Ralf mitgebracht hat an Agenda-Punkten, würde ich sagen, drei bis fünf Tagen und darüber sprechen, nämlich als Referenzpunkt des Book of News. Da lässt sich relativ schnell einen Überblick bekommen, was alles an Informationen irgendwo zusammenkommt aus den unterschiedlichen Themengebieten und wir wollen halt ein bisschen darüber sprechen, allerdings... Ich möchte noch mal ganz kurz abschweifen. Habt ihr mitbekommen, dass Microsoft neue Surface-Devices ebenfalls gestern oder vorgestern vorgestellt hat? jetzt haust du aber einen Trigger raus. Ja. Ich... Thorsten. Also für mich, nur dass ich das mal gesagt habe, ich finde diese Entwicklung sehr, sehr spannend, dass Microsoft jetzt auch sehr stark auf ARM-Prozessoren setzt. Und Thorsten hält uns gerade ein Notebook mit einer Windows-Taste hin. Plus-Taste. Ach so, mit der Copilot-Taste mit hin. Sehr gut, Thorsten muss einfach nicht mehr selber Surface Laptop 6 und nicht das 7er und ja, ich habe gestern tierisch mich geärgert darüber, wie mir denn sowas wohl durchgehen kann, aber hey, es ist gute... Ich würde sagen, ausgereifte Hardware, die ich jetzt in meinem Gerät habe. Ich habe die Copilot-Taste. Was willst du denn mehr? Und ich kann trotzdem 20 Stunden arbeiten. bitte sehr. 20 Stunden, überarbeite dich nicht. Am Stück. Am so. würde bedeuten, dass Torsten arbeitet. Aber wir schweifen zu stark ab. Wir wollten über die BILD sprechen. Also wir lassen bei der BILD doch erstmal damit anfangen, was ist denn die BILD überhaupt für alle, die das gar nicht wissen, weil die BILD ist eine spezielle Konferenz. Ja, früher hätte der Steve da dreimal auf der Bühne rumgeschrien, Developer, Developer, also das ist so der Main-Fokus. Es geht für ganz viele Themen hauptsächlich die Developer-Ansicht. Und du korrigierst mich, wenn ich falsch bin, oder? Wie das ist, ja, hast du recht, ja. Okay, erste Prüfung schon bestanden. Also genau, also die BILD ist die Go-To-Developer-Conference für alle Software-Entwickler und eine der größten ihrer Art überhaupt, findet dieses Jahr wieder in Seattle statt mit, ich habe geschaut, ich glaube, sie haben 200.000 Registrations, die werden nicht alle vor Ort sein, aber weltweit ist das eine der größten Developer-Conferences, die es gibt. Und typischerweise findet auf der BILD... Ein Highlight-Announcement nach dem anderen statt. Und auch in diesem Jahr ist das so, oder ich will mal anders sagen, in den letzten zwei Jahren war das so hmmm, Überschaubar, was da so an spannenden News rauskam und dieses Jahr hat sich das so gegenseitig überholt, meiner Ansicht nach und ich finde es total schön, was da jetzt rausgekommen ist und natürlich haben wir einen Schwerpunkt auf Artificial Intelligence, also künstliche Intelligenz, dieses Jahr und das ist ein super spannendes Thema und da hat es nicht nur für die Developer News gehabt, sondern eben auch viel in Richtung Power-Plattform und M365, aber da wirst du, Michael, bestimmt noch ein paar mehr Insights haben. Ein bisschen was zumindest das, was ich verstanden habe. Wir versuchen das ja in diesem Format hier sehr gut zu bewerten, dass wir ein Gefühl dafür bekommen, ist das jetzt... Was sinnvoll ist, was nicht sinnvoll ist. Und da haben wir, glaube ich, auch eine gewisse Schwierigkeit, dadurch, dass der Thorsten und ich nicht so die großen Entwickler sind, ganz viele Sachen noch angekündigt. Warte, Thorsten, du kannst mich gleich korrigieren, dass du in deiner Freizeit schon tausend Programme geschrieben hast. Aber jetzt kommt erstmal, ich wollte noch den Hinweis geben, viele Sachen sind halt noch nicht mal Richtig da. Also manche Sachen sind nur angekündigt, manche Sachen sind in einer Private Preview da, manche sind schon in einer Public Preview und andere sind als soon oder kommen tatsächlich mit Ankündigung erst Ende des Jahres oder ganz, ganz viel später. So Thorsten, jetzt kannst du mich korrigieren. Du hast doch mehr würde ja gerne nochmal letzte Folge, also vor zwei Wochen aufgreifen, wo ich mich ja... Proaktiv für die Community geoutet habe, weil ich bin nämlich derjenige, der Exchange programmiert hat, der Skype for ja, stimmt. hat und insofern kann ich jetzt eigentlich die nächste Katze aus dem Sack lassen, ja. Der Ralf hat ja gerade schon gesagt, er ist Team Lead, das heißt, er ist eigentlich mein Vorgesetzter und er gibt jede Zeile Code, die wir im Exchange schreiben, also die ich schreibe, erstmal frei natürlich. Selbstverständlich, jeder Pull-Request. Bitte? Jeden Pull-Request, geht über mich genau. Jetzt musst du eben noch erklären, was ein Pull-Request ist. bitte, das wir. Also gut, Leute, starten wir einfach mal ein bisschen durch. Ich habe mir ein kleines Playbook gemacht für euch, was ich euch heute erzählen kann und vor allen Dingen, also das ist wirklich ein kleines Feuerwerk und wir fangen einfach mal bei den Themen an, die super wichtig sind, weil wir haben jetzt... Anderthalb, zwei Jahre spielen wir rum mit all diesen tollen Generative AI Services, also allen voran natürlich Open AI. Und was machen wir denn jetzt damit? Und irgendwie müssen wir damit ja umgehen. Und dafür hat Microsoft jetzt endlich Referenz-Architekturen rausgebracht und hat ein Konzept erstellt, wie können wir mit den Landing Zones umgehen, also jeder, der da draußen irgendwas auf eine Azure Subscription an Services deployen möchte, baut sich sowas auf, um damit sicher und ordentlich umgehen zu können. Außerdem haben sie das Well-Architected-Framework für AI rausgehauen und das braucht man einfach für zuverlässige, sichere, kosteneffiziente, performante AI-Applikationen, die ihr da draußen für euch erstellen könnt. Das ist mal ein mega Highlight, endlich ist es soweit. Das heißt also, man kann darauf ein bisschen zurückfallen und bitte versteht das nicht als... Das ist so, wie man es macht, sondern adaptiert das bitte auf eure Bedürfnisse und nehmt das als Rahmen für alles, was ihr mit dem ganzen Zeug vorhabt. Und eins der Services, die ganz groß rauskommt, weil heute hört man ja ganz oft, oh, Ich muss mir ein Custom LLM bauen, also Language Large Model, also Generative AI und dieses Thema Custom Generative hat Microsoft aufgenommen und hat versprochen, versprochen, coming soon, dass es anpassbare Modelle gibt, das heißt, mit Hilfe von Dokumenten kann man ein Modell an seine Bedürfnisse anpassen. Und damit hat man dann ein Custom-LLM, also sozusagen Azure Open AI für sich customised. Was auch ganz wichtig ist, ist, dass mit der neuen, mit dem Release von GPT-4.0, multimodale Large Language Models rausgekommen sind. Was heißt multimodal? Das Ding kann sprechen, kann hören, kann sehen und versteht Texteingaben. Das ist multimodal. Und dieses Thema ist jetzt, genau, das ist ein Well-Architected Framework, was du hier gerade aufgelegt hast. Sehr schön. Also... So kann das aussehen. Bei AI Search ist jetzt das Versprechen gekommen, dass das Multimodale mit integriert wird und die Vektorisierung, also was passiert, wenn man einem AI Dokumente hinschmeißt, ist ja, dass alles diese Inhalte vektorisiert werden. Und mit Hilfe der Vektoren kann man dann arbeiten und darauf aufbauen und dann auch suchen. Das geht jetzt zu tief, wenn ich euch das erklären müsste, aber AI Search kann jetzt mit Multimodal umgehen und hat eine integrierte Vektorisierung dafür. Total cool. Und wenn euch das jetzt angefixt hat und ihr Bock habt, das auszuprobieren, dann nehmt euch eine kostenlose Azure Subscription. Ihr habt 200 Dollar, mit denen ihr vier Wochen lang rumspielen könnt und Und holt euch, also wenn ihr das aufgesetzt habt, dann könnt ihr dann mit Azure AI Studio loslegen und könnt hier anfangen, damit rumzuspielen, könnt ein Open Azure AI Service, ein Azure Open AI Service für euch deployen und könnt anfangen mit den, Chatbot zu reden oder die einzelnen Funktionen auszuprobieren. Was jetzt da neu reingekommen ist, ist für alle Devs da draußen super interessant, Code First. Heißt, wir können mithilfe von CLI oder dem neuen AI-Toolkit für VS Code loslegen und uns unsere AI zusammenbauen, so wie wir das für unsere Anwendung brauchen. Wir können mithilfe von dem AI-Toolkit für VS Code die LLMs Quasi annektieren oder konnektieren und können die damit auch eintunen. Wir können das deployen Richtung Microsoft AI Studio oder andere Plattformen etc. pp. Also total fancy Stuff, der mega viel Spaß macht. Und Thorsten, Michael, wie weit habe ich euch jetzt abgehängt? Nur mit den paar Worten. Also Architektur habe ich schon mal irgendwo gehört. Das ist das, wo Gebäude rumstehen. Nein, wir machen ja den anderen Podcast rund um Code AI genau, Decode AI. Und für mich war halt relativ interessant diese Ankündigung von OpenAI, dass sie das Chat-GPTO, dann, ich glaube, das muss man so aussprechen, dass das so mit rauskam, die Showcases, die sie damit reingebracht haben und dann jetzt auf der Bild zu hören, zwei Wochen später, eine Woche später, ich habe gerade nicht das richtige Zeitgefühl, dass das von Microsoft bereits adaptiert ist und sie das nicht nur schon für die Azure Open AI Services anbieten, sondern inzwischen auch schon die API-Schnittstelle anbieten. Das war für mich etwas, was jetzt cool war, wo ich dann auch gemerkt habe, wow, da ist Speed dahinter. Ja, das über... Okay. Ja. Genau, also du gehst einfach her und erstellst eine Subscription für dich. Also eine Microsoft Azure Subscription ist die Grundlage für alles, was du in Azure-Services nutzen möchtest. Und dann gehst du her und gehst auf aoi.azure.com und AOI, also Azure Open AI, abgekürzt mit drei Buchstaben, A-O-I, Azure.com und bist damit schon in Azure Open AI Studio und kannst dir anfangen, da rumzuspielen und kannst direkt, also du deployst eins dieser vielen GPT-Models, ja, zum Beispiel GPT-4.0 und kannst dann damit anfangen zu spielen. Also du kannst dann... es, Das ist super easy. Es gibt ganz viele tolle Learn-Artikel dazu, wie man damit starten kann und wie man das beeinflussen kann. Da lernt ihr, was ist eine System Message? Also System Message ist das, wo ihr dem Large Language Model mitgebt, wie es sich benehmen soll. Den zu einem Piraten machen oder ihr könnt den zu einem unterhöfigen Diener machen oder einfach nur zu einer sehr freundlichen Assistenz. Das könnt ihr mit der System-Message mitgeben und könnt dort steuern, wann soll er denn zum Beispiel antworten, du, das ist mir jetzt gerade zu blöd, da kann ich jetzt nicht drauf antworten, um Hallucination auszuschalten und sowas, aber da geht es los, genau, das ist sehr einfach. Okay, und Christoph hat die Frage der Chefentwickler von Exchange und SharePoint bin, ja, Dank. und die tollsten Geschichten mit Azure AI und Open AI und bauen. Jetzt habe ich ja keine Ahnung vom Programmieren. Und liefert mir dann Microsoft dann zumindest auch ein paar Templates, wo ich mich dran, also A ist es für mich als Nicht-Programmierer überhaupt verständlich, also komme ich da leicht rein, um dann auch am Ende des Tages was Produktives zu haben und nicht nur einfach frustriert meinen Surface 6 Laptop in die Ecke zu schmeißen, weil meine Copilot-Taste immer noch nicht funktioniert und B kriege ich in irgendeiner Form eben Templates oder Beispiele, kann ich mir einfach dann Code da reinladen und bla bla bla, also ne, ja. Kann ich mich schnell da reinfinden oder muss ich erst mal drei Jahre Studium absolviert haben, um grundsätzlich zu verstehen, was da passiert? You Antwort, ja. Eine lange Antwort. Du kannst damit einfach loslegen. Es war für den Entwickler sehr frustrierend, weil es tatsächlich eigentlich nur über die Oberfläche gegangen ist, alles zu konfigurieren oder du das über die API alles mit setzen musstest und jetzt ist es so, dass du diesen ganzen Krimskrams auch über die CLI, also die Das Command-Line-Interface realisieren kannst und das sowohl in dem Azure-Portal direkt oder auf deiner Azure CLI auf deiner Maschine oder in Visual Studio oder mit den Extensions von Visual Studio da einfach quasi zeilenbasiert, commandbasiert darauf arbeiten kannst. Das ging vorher nicht. Das heißt, die Einstiegshürde war schon immer eigentlich sehr gering durch das AI-Studio. Und es gibt genügend... Der Einstieg ist sehr einfach. Der Assistent bringt dich durch. Es gibt Templates, wo du draufklicken kannst, wo du einfach mitspielen kannst. Es gibt einen Playground. Alles, was du dafür tun musst, ist vorher das Modell zu selektieren und zu deployen und auch dafür gibt es einen Assistenten, der dich da einfach durchführt und du spielst dann einfach direkt damit ab. Und wenn du das Ganze dann als Anwendung deployen möchtest, gibt es da tatsächlich in diesem Chatbot Playground einen Button, oben rechts findet ihr den, wo es dann heißt, als Applikation deployen. Und schon hast du deine erste Applikation deployed und kannst damit richtig cool spielen. So einfach ist das. Und deswegen war das auch notwendig, dass endlich die Architekturvorgaben kommen, dass sich jemand Gedanken macht, welches Framework können wir denn benutzen, um jemandem zu sagen, wie er eine sichere, intelligente Anwendung, so sagt man ja, deployen kann. Genau. All die Grundlagen sind dafür jetzt gelegt worden, damit das endlich stattfindet und die coolen Projekte realisiert werden können und produktiv gehen können. Ohne das Studio gesehen zu haben. Das klingt so ein bisschen nach dem Graph Explorer, den es für die Graph API gibt. Kennst du den? Ich kenne den sehr gut. Ich möchte ihn damit nicht vergleichen. Okay. Also ich habe jetzt funktioniert, sage ich. Ich formuliere das mal Okay, ich habe das jetzt gesehen, so nach dem Motto, wenn ich jetzt Rechte habe, dann kann ich halt einfach Beispiele nutzen, die schon da sind, einfache Beispiele und kriege dann zumindest mal ein Gefühl dafür, wie dieses Thema API funktioniert. Okay, ich habe verstanden, dass das offensichtlich nicht nochmal zurückgerudert, du möchtest damit spielen, machst dir deine eigene Subscription, brauchst dir keine Rechte, du hast dann alle Rechte. Möchtest du das im Unternehmen ausprobieren, unterhalte dich mit deiner IT, lass dir eine Subscription geben mit den Owner-Berechtigungen auf diese Subscription und die Berechtigung, Services zu deployen und stelle sicher, dass deine IT das nicht über irgendeine Policy verhindert, dass irgendwelche AI-Models deployed werden. Dann kannst du auch das machen und dann gehst du einfach auf diese Umgebung und kannst damit rumspielen. Das ist mega einfach. Genau. Ich habe haben wir jetzt so ein bisschen so How-to-Start mitgemacht, finde ich gar nicht so andere Frage, vielleicht Sorry, wenn ich dir jetzt da rein torpediere. Ich habe ein Schlagwort gelesen in diesem Book of News. Und zwar, ich habe keine Ahnung, wie man es ausspricht. Ich würde es mal einfach mit Fee3 aussprechen. ja, mhm. Dann, wenn ich bist schon... Damit überspringst du jetzt den Punkt, den ich noch dazwischen haben wollte. Und das ist... Das ist eigentlich meine Frage, die ich da mit rein habe, weil da würde ich ganz gerne ein bisschen Verständnis aufbauen. Das Okay, also bei PHY3 reden wir über ein sogenanntes SLM und im Gegensatz zu einem LLM ist ein SLM einfach ein Small Language Models oder Model, genau. Und was ist der Unterschied? Ich weiß die Zahlen nicht, ich glaube, nicht mehr auswendig ganz genau, ich glaube, wir sind bei über 100 Billion Parameters beim ChatGPT 3.5. Jetzt haben wir ein Small Language Model und das hat in sich ungefähr 4,2 Billion Parameters. Das heißt, es ist um ein Vielfaches kleiner als ein Language, als ein LLM. Und bietet dadurch eine extreme, naja, Performance-Boost an, ist aber auch dafür deutlich mehr zielgerichtet auf den Anwendungsfall. Ich möchte da gar nicht so viel tiefer reingehen, Michael, weil ich würde das lieber mitnehmen in unseren Talk, die Code AI, und da dann ein bisschen tiefer rein in dieses quasi für dich neue Feld, SLM. Und dann darüber sprechen, aber im Wesentlichen kann man verstehen, ein Language-Large, also ein Large-Language-Model hat halt über 100 Billionen Parameter in sich, während ein SML deutlich, oder ein SLM, deutlich weniger hat, und wir reden hier im Fall von PHY3 über 4,2 Billionen Parameters, die da enthalten sind. Ja. Also es ist ein sehr zielgerichtetes Language-Model, das also einen bestimmten Bereich abdeckt und damit effizienter und eben kleiner ist. Das stellt natürlich auch, also jedes Language-Model stellt gewisse Anforderungen an Ressourcen, sei das Speicherplatz, sei das Ausführungskapazitäten etc. pp. Und damit versucht man dem entgegenzuwirken und schneidet es dann jetzt einfach ein bisschen kleiner. Okay. Mich hat es tatsächlich so ein bisschen gejuckt. Ich dachte mir, wenn wir jetzt gerade schon so im Thema Grundlagen sind und du für uns nochmal die Welt erklärst, dann gehen wir vielleicht auch nochmal an die Stelle mit ran. gerne. Also ich würde es gerne dabei belassen. Also wir haben damit auch das meiste gesagt, glaube ich, darüber. Wer da mehr wissen will, kann erstens das Book of News lesen, die Session besuchen oder kommt zu Decode.ai in den Talk und wir sprechen da nochmal ein bisschen mehr darüber. Ihr könnt euch zumindest vorstellen, dass solche Sachen dann später auch gerne mal in den Container wandern, also containerized der Ausführung sind und wenn das die Größe hat, dass man das in den Container ausführen kann, dann kann ich das vielleicht auch auf sowas wie einem Raspberry Pi, also in der Baugruppe seines Raspberry Pis ausführen und so kommen wir dann dahin, dass wir nicht nur Smart Apps auf irgendwelchen Großrechnern laufen lassen, sondern eben auch auf kleinen Devices und Damit, genau, das soll damit erreicht werden. Was wir jetzt ausgelassen haben, ist das Thema M-A-A-S, also Model as a Service. Und wenn ihr anfangt zu spielen mit dem AI Studio, Dann werdet ihr nicht umhinkommen, um über diesen Model-Katalog zu schauen, denn Microsoft implementiert nicht nur die OpenAI-Services, sondern es gibt ja auch ganz viele andere Services da draußen, die in diesem Katalog mit drin sind, und das macht das MAS möglich, also Model as a Service, und da kann man jetzt auch seine eigenen Services mit dranhängen. So. Dann haben wir noch ein ganz wichtiges Thema, das ist AI Content Safety. Das ist ein Begriff, wenn ihr anfangt damit zu spielen, fallt ihr früher oder später da drüber und hier hat es jetzt die Möglichkeit, Custom Categories mit reinzubringen. Außerdem werden die Prompt Shields und Groundness Detection mit eingeführt, ganz neu. Damit stellt ihr sicher, dass die Ein- und Ausgaben in eurem In eurem Bot oder in eurem Chat, dass die safe sind, also dass die nicht harmvoll sind, dass die nicht beleidigend sind, dass die nicht gegen eure Firma gehen, so das hier DHL-Problem. Was jetzt schon so teilweise aufgepoppt ist, dass dann irgendwelche großen Hersteller der Welt den fancy AI-Bot auf ihrer Website haben und dann ist irgendein kluger Hacker beigegangen und hat den Kollegen so lange in der Session vollgesülzt. Bis der Bot dann gesagt hat, also zu diesem Paketboten würde ich nie mein Paket geben, weil das ist das Schlechteste, was du überhaupt machen kannst und das geht dann in der Presse viral und schon bist du fertig mit der ganzen Nummer, dass genau sowas eben nicht passiert Genau, also dass man seine Anwendung sicher macht und dass sie nicht gejailbraked werden kann, so nennt man das, wenn man den so lange bearbeitet, bis er anfängt, das Unternehmen zu beleidigen, für das er tätig ist, ja, also genau das ist genau damit gemeint. Ja, genau. Wir haben jetzt ja schon super viel AI-Themen gehabt. Es gibt ein Thema, das finde ich auch noch ganz wichtig, und zwar wer da draußen in der .NET-Welt Software entwickelt, der hat damit zu tun, dass er irgendwelche Services in seiner Software anbindet und damit entsteht ein gewisser Aufwand für das Setup. Und den kann man jetzt mit .NET Aspire hervorragend abstrahieren und kann quasi die Konfiguration und Integration in seine Anwendung von solchen Services mit .NET Aspire erledigen. So eine ähnliche Form von Dapper, allerdings im Code. Und lohnt sich für alle, die es hören, da mal hinzuschauen. Also wenn du jetzt zum Beispiel eine Anwendung schreibst und du möchtest gerne einen Storage-Block anbinden oder eine Cosmos-DB, dann hast du das SDK zu importieren, dann musst du die Konfiguration erstellen dafür, du musst das ganze Zeug dann in deiner Anwendung verwalten, bla bla bla. Ja. Und .NET Aspire erlaubt dir das, quasi per Konfiguration zu machen, statt dass du das in deinem Code machst. Und das ist eine deutliche Verbesserung, weil jeder Change an diesem Drop Storage oder an der Cosmos DB erfordert dann wieder das Anfassen der Software. Und wenn ich das aber über Konfiguration mache, packe ich mir eine Konfiguration an und kann das damit ins Ops-Team geben. Deutlich verstehe sogar ich. Umgebung dann für dich. Ja, wenn ihr das versteht und da keine Fragen habt, bin ich happy. Wir haben dann ganz neu AKS Automatic und das ist quasi also Azure Kubernetes Service ist eine Die PaaS-Lösung, die einen Kubernetes anbietet, gibt es jetzt schon ein paar Jahre, brauchen wir nicht großartig drüber reden. Neu ist dieser Zusatz Automatic. Und was macht es Automatic? Es ist ein Kubernetes, das für euch aufgesetzt wird, nach Best Practices von Microsoft, die einige der größten Kubernetes-Cluster der Welt betreiben, wo zum Beispiel Teams draufläuft, wo zum Beispiel Xbox Play, Games-Services drauflaufen und ist gemacht, um AI-Applikationen in die Produktionswelt zu heben. Das heißt, um quasi Smart-Apps oder Intelligent-Apps in Produktion zu betreiben. Also vorkonfigurierter Azure Kubernetes-Service. Ziemlich geiler Kram. Für alle, die sich Gedanken machen darüber und eine sehr große Applikation haben, ist es der GoTo. Was haben wir noch Neues? Cosmos DB ist ja auch schon ein alter Kandidat in dieser ganzen Geschichte, insbesondere bei NoSQL. Was jetzt neu dazu kommt ist, und das brauchen wir unbedingt, wenn wir zum Beispiel Azure Search benutzen wollen, also AI Search, dann haben wir vorhin schon gehört, wir haben sowas wie Vektoren und diese Vektoren müssen irgendwo abgelegt werden und im besten Fall kann ich hervorragend darüber suchen. Und das kommt jetzt nach Azure Cosmos DB mit der NoSQL-Implementierung und ist powered by DiskN und bietet eine super low latency Vector Search an und ist damit der erste First Cloud Scale Datenbankdienst, der solche Sachen im Petto hat. Ziemlich cooler Stuff an der Stelle. Hast du gerade gesagt, es wird jetzt ein Wetterdienst an die Kosmos-DB angeschlossen? Habe ich das gerade richtig verstanden? First Cloud Scale hat nichts mit Wetter zu tun. Okay, okay. Irgendwo war Wetter, glaube ich. Vektor hat er Vektor. ja, Vektor, ergibt gleich einen ganz anderen Sinn. Also wenn wir unsere Dokumente irgendwie... Vektorisiert haben mit AI-Search oder AI-Index, dann können wir es jetzt in Cosmos DB NoSQL ablegen mit der Disk-N-Implementierung und können dann über diese Vektoren super easy und sehr schnell suchen. Cosmos DB hat noch ein Eis, ne? Aber der Semantic-Index für Copilot arbeitet ja nicht auch mit Vektoren, Michael? War das nicht so? Natürlich. Sie. Ich hab was verstanden, mega! Und ich hab aufgepasst in diesen ganzen Microsoft-Schulungen. Geil! stark. Glückwunsch, Thorsten. Okay. So, was haben wir denn noch Cooles? Ich versorge mal mal ganz kurz hier, das tut mir leid, das ist jetzt in, ist halt live, Ach, du musst machen, weil du ja, mir ist gerade aufgefallen, dass das Mobile sich beklagt und das Laden unterbrochen hat, weil es ihm warm geworden ist, aber das können wir so nicht lassen. ein Also, was ist noch Cooles gekommen? Cosmos DB gibt es ja seit einem Jahr ungefähr, auch als eine Serverless-Instanz, das heißt, es wird darunter quasi keine Pixel verwendet. Wird nicht auf einer fixen VM oder sowas deployed. Und das kann man jetzt übertragen auf eine Provisioned-Kapazität. Das heißt also, von Einer Cosmos DB Serverless kann ich jetzt rübergehen und die transizieren in eine normale Cosmos DB Instanz. Das ist ziemlich cool, weil man fängt Serverless an und lernt dann in der Anwendung, oha, jetzt habe ich aber doch ein bisschen mehr Bedarf und ein bisschen mehr Performance Bedarf, dann kann ich das umziehen und damit tun sich für euch auch auf ein paar neue Sparmöglichkeiten, weil man kann dann zum Beispiel mit Reservations Dafür sorgen, dass die Cosmos DB nicht ganz so teuer wird. Ja, was haben wir noch Tolles, wenn wir schon bei den Datenbanken sind? Azure Database beinhaltet jetzt auch PostgreSQL-Extension für AI und ist General Available, also GA. Außerdem haben wir einen Cosmos Pilot, Copilot, also, oh Gott, das war jetzt super gemixt, Entschuldigung, also den Microsoft Copilot findet ihr jetzt auch in Azure SQL. Und was macht er da? Er hilft den Entwicklern, komplizierte Queries zu erstellen, indem sie die Möglichkeit haben, auf natürliche Sprache zurückzugreifen und Copilot zu sagen, was für Daten wie zusammengestellt werden und draus putzelt dann ein SQL-Query für euch, mit dem ihr das dann erledigen könnt, was ihr da vorher an Eingabe reingehauen habt. Ja, ähm... Ich mich ja immer so frage, bei diesem ganzen Copilot-Kram, auch wenn ich jetzt vielleicht die Session sprenge, ich weiß es nicht, ist das ein Anwendungsfall? Ist das echt ein Anwendungsfall? mit der M365-Welt zu sprechen, es gab jetzt die Tage irgendwie im News-Center die Ankündigung, dass wir demnächst ein Plug-in haben, damit wir unsere Shifts, also die Schichtenverwaltung in Teams, mit Copilot abfragen können, damit ich dann im Copilot sagen kann, sag mir mal, welche Schichten ich nächste Woche habe, wo ich mir denke, naja, ernst? Also ich meine, ich kann ja auch einfach in Teams in die Shifts-App gehen und sehe, was ich halt für Dinger habe und wenn ich mir jetzt vorstelle, ich bin ein SQL-Dude irgendwie und habe da eben seit 20 Jahren, baue ich mir meine SQL-Query so rund runter, wird dem jetzt helfen, dass er demnächst über Copilot sagen kann, gibt man mir die ersten tausend Ergebnisse aus der Adressdatenbank wieder? Aber das ist ja genau der Punkt, der Moment. Die Diskussion hatte ich nämlich gerade erst diese Woche mit jemandem, der absolut arbeitet in Excel seit Jahrzehnten. Weiß ich nicht, 90% der Arbeitszeit passiert in Excel, baut dort wildeste Sachen, hat halt auch gesagt, also den Copilot für Excel brauche ich halt nicht. Und das passt auch. Aber für den normalen Otto-Normal-Fuzzi, so wie mich, der Otto-Normal-Fuzzi kommt doch nicht auf die Idee zu sagen, ich gehe jetzt mal an eine SQL-Datenbank und lasse mir die ersten 1000... Da wüsst ihr doch nicht mal, was er reinschreiben aber wenn du nur alle fünf Jahre mal in seine Datenbank reinschaust und dann eine Abfrage bauen möchtest, dann sehe ich dafür schon die Möglichkeit. Ich würde sowas nicht separat lizenzieren, aber wenn das mit einem anderen Paket mit dazukommt... Dann ist das sinnvoll. Wie gesagt, dieser Excel-Spezialist, der baut die wildesten Sachen in Excel und wenn ich dort reingehe und sage, ich habe das neulich bei dem gesehen, ich weiß gerade mal, wie das heißt, dann kann ich den Copiloten halt fragen und der baut mir sowas dann. Das ist eben genau diese Brücke, dass ich professioneller arbeiten kann, wenn ich mich nicht in der Tiefe damit auskenne. Es ist ja immer noch der Copilot. Er soll ja unterstützen. Genau, also es gibt ja nicht nur große Unternehmen, die die Möglichkeit haben, solche Hardcore-Spezialisten zu unterhalten. Und der Trend ist ja eher dahingehend, dass man mehr und mehr generalistisch unterwegs ist und die Spezialisierung vielleicht nicht mehr überall so erforderlich ist. Wichtig ist, dass man natürlich ein gewisses Verständnis davon hat, ansonsten werden auch die Queries hier scheiße werden. Shit tatsächlich ist es das, dass ich jetzt dann, also was passiert, wenn einer jetzt, keine Ahnung, der hat den Server drei Jahre lang nicht angepasst oder angefasst und hat nicht reingeschaut und jetzt braucht er auf einmal eine neue Table mit neuen Daten drin, dann fragt er, wen fragt er denn dann? Also er googelt es und jetzt kann er das Copilot erzählen und Copilot kann basierend auf seinem Dataset sagen, zack, das ist die Antwort und die Zeitersparnis ist ja immens, weil sonst schnipselt er sich das vielleicht zusammen aus irgendwelchen Beiträgen, aus irgendwelchen Foren und hat, dealt damit rum und irgendwann läuft es dann, aber hat halt den ganzen Tag verbrannt. Und jetzt kann er das abkürzen, indem er Copilot fragt, was nicht bedeutet, dass Copilot immer die richtige Antwort gibt. Da muss man ein bisschen validieren, was da rauskommt. Und das, also, genau, also berechtigte Frage, Thorsten, für den Profi kann es hilfreich sein, also kann seine, kann quasi Tasks erledigen, die für ihn langweilig sind und für den Unerfahrenen oder für den Generalisten, der da nur alle Nase lang reinschaut und sich ein bisschen Unterstützung wünscht, perfekt dafür geeignet. Ja, so, dann kommen wir auf ein Riesenthema, MS Fabric. Fabric, das neue Ding, für alle, die ein bisschen was mit Daten zu tun haben, die irgendwas ETL-mäßiges machen möchten, die Datenanalysen machen wollen, anreichern und so weiter und so weiter und so weiter. Von Anfang an mit Copilot supported, total geil. Jetzt gibt es das für Realtime-Daten. Also, Sie haben ein Realtime-Hub gebaut für die Daten-Ingest. Sie haben Prozesse dafür, also du hast die Möglichkeit, auf den Daten dann zu arbeiten, sie anzureichern, die Daten zu routen. Du kannst deswegen jetzt mit Event-Streams out of the box arbeiten. Es gibt das Event-House, das die Möglichkeit bietet, auch im Realtime-Dashboard zu arbeiten. Wir haben jetzt den Data Activator mit drin, der als Trigger funktioniert, um Daten zu prozessieren. Und natürlich kannst du das alles mit AI-Powered Insights dann dahinter legen und hast halt den Microsoft Copilot integriert. Und kannst dir damit dann auch jetzt KQL-Querys generieren lassen. Also analog zum Azure SQL kannst du jetzt auch in Fabric dir auf deinen Daten KQL-Querys erstellen lassen und hast damit einen super Vorteil zeitlich gesehen und natürlich auch... Erkenntnismäßig die Möglichkeit, wenn du die richtigen Fragen stellst mit AI, was kommen denn da für Daten an, wie kann man die gut beurteilen, etc. Also beispielsweise ich will eine Schadenserkennung machen oder sowas, dann kann ich das genau mit sowas machen. Ein ganz anderes Thema, was jetzt rausgekommen ist, also ihr habt es wahrscheinlich schon öfter gehört, aber es gibt das API-Management in Azure, also dahinter kann ich meine Applikationsinterfaces verstecken und kann den Zugriff steuern und wie das alles kommuniziert wird etc. pp. und sorge damit dafür, dass ich eine sichere Barriere habe zwischen meiner Anwendung und der Außenwelt. Neu dazu kommt jetzt das Azure API Center und was verbirgt sich dahinter? Es ist quasi die große Klammer für alle API-Managements, um zum Beispiel innerhalb eines Unternehmens die Möglichkeit zu haben, seine APIs zentral anzubieten und zu verwalten und damit die Gelegenheit zu nutzen, dass Was zum Beispiel für Power-Plattformen irgendwelche APIs aus dem Unternehmen, die in Azure liegen, verwendet, um da irgendwelche Daten daraus abzugreifen. Was ein bemerkenswerter Punkt ist. Ein anderer Zuwachs ist, dass wir mit Azure App Services jetzt die Möglichkeit bekommen, ein Sidecar-Pattern zu benutzen und wer Sidecar-Pattern noch nicht kennt, es gibt das Distributed Application Framework oder Runtime, das heißt Dapper im Kurz, also wer auf dapper.io geht und dort nach Sidecar-Pattern sucht, der findet eine Plattform, Prima Erklärung davon, was ist ein Sidecar-Pattern und damit habe ich die Möglichkeit als Entwickler quasi ein kleines Sidecar zu bauen, das bestimmte Dinge für mich erledigt oder weg abstrahiert und ich mich so in meiner Applikation auf meine Business-Logik konzentrieren kann. Genau das macht Dapper und wer mit Dapper nicht glücklich wird, kann Dapper entweder erweitern oder er baut sich sein eigenes Sidecar. Ich behaupte, dass Mindestens 80 Prozent aller Fälle mit Doppel schon erledigt sind. Das könnt ihr jetzt auch auf Azure App Services benutzen. Total cool. Fragen? Sind alle leise? Haben wir eigentlich ein Chat? Kommen da, also ich glaube zwar nicht, dass wir, haben wir Zuseher? Haben wir Zuseher? Ja, wir haben Zuhörer und Zuseher, immer. Immer. Microsoft Azure Container Apps, einer meiner Lieblings-Services, das ist quasi die Next-Level-Abstraktion eines Kubernetes-Services, der wirklich alles für dich weg abstrahiert, du hast keinen Ärger mit Ingress, Egress, also ankommenden und verlassenen Traffic. Du kannst hier sofort Nutzen haben von Dapper, weil es Built-in ist, etc. pp. Was ist jetzt neu dazugekommen? Es wird in Zukunft in Azure Container Apps die Dynamic Session geben. Was ist das? Du erweiterst on-demand in einer Sandbox deine Azure Container App und packst da zum Beispiel AI drauf mit LLM oder was auch immer oder eine Customized SaaS-Lösung und kannst das in einer Sandbox sicher erweitern. Ohne den Code zu verändern, mit ausführen auf Azure Container Apps. Ziemlich coole Sache. Außerdem bekommen die Azure Container Apps jetzt das .NET Aspire Dashboard. Das ist der Service, den ich euch vorhin genannt habe, wo man per Konfiguration andere Services an seine Applikation anbinden kann. Genau. Lass mich noch ganz kurz, also ich bin schon fast am Ende mit den coolen News und danach können wir vielleicht auf die Themen schwenken, Thorsten und Michael, die ihr noch im Petto hattet. Aber es gibt noch vier Sachen, die ich erzählen möchte oder vielleicht fünf. Jedenfalls der letzte Punkt wird, glaube ich, lustig für alle. Er ist so ein bisschen bottomless. Azure Functions. Azure Functions bekommt eine Extension ähm... Um Microsoft Azure Open AI Services direkt zu infusen in die Function, also eine direkte Anbindung, total cool, was so ungefähr dem Sidecar-Pattern entspricht, also per Konfiguration Die Nutzung von Azure Open AI Services zu benutzen. Außerdem hat man jetzt die Möglichkeit, Azure Functions als Container-App auf Azure Container-Apps reinzulassen. Das bietet den Vorteil, dass ich zum Beispiel nicht die Warm-up-Phase habe, dass ich lange ausführende Functions haben kann, etc. pp. Außerdem findet man jetzt auch Dapper auf Functions. Total cool. Ein anderer schöner Serverless-Service ist die Static Web App. Die kann ich nur allen empfehlen, die irgendwas mit SPAs zu tun haben, etc. pp. Du hast auf der einen Seite eine Frontend-Applikation, auf der anderen Seite bekommst du entweder schon Embedded Azure Functions oder du kannst Custom Deployed Functions benutzen. Hier kommt jetzt neu dazu, dass es endlich eine Network Isolation gibt. Das heißt, ich kann meine Functions noch ein Level sicherer machen, also meine SWR ein Stück sicherer machen, indem ich sie isolieren kann. Ich bekomme die Data Residency dazu. Das ist wichtig, um mit Daten umzugehen, die in meiner Applikation sind. Und außerdem kommt jetzt das Always-On-Feature. Azure Static Web Apps sind in Ihrem Startup-Verhalten ziemlich, ziemlich schnell. Sie sind ja Static Web Apps, also da kommt statischer HTML-Code hin. Sie haben aber eine Spin-Up-Time. Und wenn einem das zu lange dauert, kann man das jetzt mit Always On für die Functions, also hinten dran das, was uns Content liefert und die ganze Static Web App dynamisch macht, kann ich ein Always On für die Managed Functions aktivieren. Das ist nagelneu, finde ich auch ziemlich cool, denn sonst war man gezwungen, da seine Custom Functions hinten dran zu binden, damit man genau dieses Feature nutzen kann. Jetzt gehen wir schon ein bisschen Richtung Low-Code und Logic-Apps sind Low-Code-Applikationen, du kannst also mit Hilfe von ein bisschen Konfiguration und clicky-bunty-Boxen hin und her schubsen, kannst du mit Hilfe eines Triggers eine bestimmte Logik starten und die macht Dinge, die kann Daten empfangen, Daten verarbeiten, Daten ablegen, kann Daten anreichern, was auch immer du damit dir ausdenkst, Und hier gibt es jetzt dann endlich die Möglichkeit, Custom Code in deine Logic App mit einzubauen. Das heißt, irgendjemand entwickelt quasi ein Kästelchen, das du bunt durch die Gegend schubsen kannst in deiner Logic App. Und das geht jetzt mit .NET Custom Code Support für Logic Apps. Wir haben... Als letztes noch unser Lieblingstool als Entwickler, das ist das Visual Studio und hier wird Copilot jetzt Hardcore integriert. Also jede Visual Studio Edition hat jetzt einen Copilot. Und zuletzt, lieber Thorsten, Microsoft Copilot in Azure. Eine bottomless Story an der Stelle. Ich habe es auch immer gesagt, es wird kommen. Und ich habe gesagt, das ist Quatsch. Das braucht kein Mensch. Hier für solche Experten wie ich, die dann so ein Kubernetes Cluster aufbauen wollen, keine Ahnung haben und dann fragen sie den Copiloten, ey Copilot, machen wir mal einen Kubernetes Cluster, aber ich habe keine Ahnung Ja, bitte, Sarko Benidis. Kubernetes, Entschuldigung. Dankeschön. Genau, das ist auch genau das letzte Thema, das ich für euch mitgebracht habe. Was bedeuten die Microsoft Capabilities, also was bedeutet der Copilot für euch in Microsoft Azure? Also ich finde es sinnvoll für genau diese Generalisten, die hin und wieder mal irgendwas tun oder mit Microsoft Azure starten. Du kannst zum Beispiel mit dem Microsoft Copilot in Azure deine Applikation troubleshooten und kannst den Copilot fragen, warum steht jetzt meine Applikation still, was ist passiert oder wie kann ich diesen Fehler beheben. Außerdem kannst du deine SQL-Databases mit deiner natürlichen Sprache verwalten lassen über den Copilot. Copilot, kannst Queries bauen und so weiter und so weiter, Catalog Views erstellen und so. Also, relativ interessant, weil, was ihr vielleicht nicht wisst, aber eine Tatsache ist, wir haben an die 400 Services in Microsoft Azure und alle diese Services zu kennen, ist hier unmöglich. Also, gilt auch für Typen wie mich. Das klappt. Vielen Meistens reicht es. Reicht es dann jetzt aber, wenn man zum Beispiel mit Copilot um den Service weiß und sich entsprechend darum mit dem Copilot unterhalten kann, um solche Services aufzusetzen, um sie, keine Ahnung, was auch immer damit zu tun. Copilot hilft jetzt auch in Microsoft Azure. Und ja, Thorsten, ich habe falsch gelegen. Es gibt einen sinnvollen Use Case für Microsoft Copilot in Azure. Du bist Gott, Vater, auch du. Alf? Durftest du das schon ausprobieren? Darfst du überhaupt drüber die Antwort verschweigen, Jan-Est. Ich ziehe den Joke ab. Das war ziemlich viel Information. Ich würde euch empfehlen, an der einen oder anderen Stelle einfach nochmal hinzuhören. Wenn ihr euch dafür interessiert, das Book of News ist public, das ist kein Secret, aus dem wir hier irgendetwas lesen oder euch vorstellen. Es wird sicher in den Shownotes mit drin sein. Klickt einfach auf die entsprechenden Themen und sucht euch das Themengebiet aus, das ich erwähnt habe, was euch interessiert hat. Das findet ihr 100% in dem Book of News. Und da könnt ihr dann entweder einen Blogartikel dazu finden, die Session dazu finden, die hoffentlich dann aufgezeichnet wurde. Ihr könnt euch noch nachträglich sogar für die BILD anmelden. Falls noch nicht geschehen, macht es einfach jetzt. Und damit habt ihr die Möglichkeit, dann auch quasi mit einer Tüte Popcorn euch die einzelnen Sessions gewählt, rauszusuchen und anzuschauen. Das lohnt sich bei einer BILD auf jeden Fall. Vor allen Dingen für die Coming-Soon-Topics, um dann eine Idee zu bekommen, lohnt es sich für mich zu warten oder möchte ich das anders lösen. Oder war auch für die Sachen, die GA gegangen sind. Also tiptop und vielen Dank erstmal, dass ich hier sein durfte und das jetzt euch erzählen durfte. Das war ein kleines, für mich war das ein kleines Feuerwerk. Ich hoffe für euch da draußen auch. Und es waren tiptop Themen dabei, die absolut aktuell sind, die auch in meinem Alltag gerade sehr aktuell sind. Deswegen fand ich das relativ cool. ich total geil finde, Ralf, ist einfach das Thema, dass ich nie mit dieser Leidenschaft und Feuer dieses Book of News hätte vortragen können und es ist einfach toll, wie du das vorstellst. Vorträgs, wie viel Leidenschaft drin ist. Ralf on fire, hätte ich fast gesagt. Insofern liebe ich unsere schon fast traditionell jährliche stattfindende Session zu Book of News und Bild, weil für mich steht, also ich brauche da nicht teilnehmen, also es ist halt Wie ich schon im Vorgespräch gesagt habe, es ist 95% Ravis nicht, weil ich nicht in der Materie drin bin, mich nicht damit beschäftige insofern finde ich toll und sage vielen, vielen Dank schon mal an der Stelle, dass du dir wieder die Zeit genommen hast, das für uns aufzuarbeiten und mit uns gemeinsam zu teilen hier. Auch wenn wir noch nicht fertig sind mit der Session, Ja, genau, genau. Nee, wir sind noch nicht fertig. dankende Worte an dich, Ralf. Danke fürs Teilhaben lassen hier an der Community, also mega. Ja, danke, dass ich hier sein darf. Das ist auch das Schöne, wenn wir jemanden haben, der eine Ahnung hat von dem, was da tatsächlich drin steht, anstatt einfach nur, ah ja, ich habe ein Schlagwort gelesen wie Cosmos DB und das hilft uns dann so ein hört sich gut an. Das habe ich noch nie gelesen, Cosmos Debbie. Das scheint neue Technologie zu sein. diese Technologie gibt es schon etwas länger. Ja, nein, also soweit reicht mein Wissen, glaube ich, dann schon, mein persönliches Wissen, aber das ist halt so, ich habe davon schon mal gehört und weiß das ansonsten nicht weiter einzusortieren, deswegen sehr gut, dass wir das bekommen. By the way, ich mache jetzt auch gleich mal kurz Werbung für die nächste Sendung, dort haben wir nämlich auch wieder einen Gast, der uns hilft, einiges einzusortieren, wir werden nämlich zusammen mit dem Thomas Stensitzki über das Thema Exchange reden, also... meine Arbeit, Das, was der Thorsten da zusammenprogrammiert bis zum Ende des Jahres. Das wird jetzt auch so eine Bottomless Action, I would Wir müssen aber noch mal eindeutig über deine Fähigkeiten reden, weil ganz ehrlich, du hast geschwankt zwischen, du programmierst große, wichtige Projekte und du hast keine Ahnung von Programmieren. Also im Nachgang müssen wir noch mal klären, welche Story jetzt dann der Wahrheit Thomas wird in der nächsten Sendung erklären, was alles im Exchange nicht funktioniert und dann weißt du, wo halt meine Programmierkenntnisse Ja, okay. Ich weiß nicht, ob das der Fokus ist, aber bevor wir jetzt hier Ende machen, ich möchte einfach mal ein bisschen einsortieren. Ralf hat jetzt ganz, ganz viel von dem Punkt vorgestellt, der hier unter Punkt 1 läuft Vielen Book of News. also... zwei, drei, vier, fünf und sechs und wir werden nicht alle heute machen, aber ich möchte so ein paar Highlights tatsächlich noch rauspicken, bevor wir hier den Talk zu machen, weil gerade die, die jetzt nicht so stark in der Developer-Ecke stehen, werden trotzdem etwas finden, was richtig, richtig groß ist. Oh, da bin ich aber jetzt gespannt, was richtig gespannt, also ich hoffe, du referenzierst nicht auf Edge, der jetzt verhindern kann, dass Screenshots gemacht werden. Also das ist doch ein richtig guter Use Case. Nein, ich habe es vorhin schon mal angesprochen, das Windows on Arm. Next Generation of Windows on Arm. Aber das ist tatsächlich... Also da muss irgendjemand was entwickeln, damit das auf den ARM-Prozessoren läuft. Das ist für mich tatsächlich nicht das große Highlight. Ich gehe mal ein Stück weit nach oben und gehe mal in die Microsoft 365-Welt. Da steht nämlich auf einmal, ich kann in SharePoint Copiloten erstellen. Und ich dachte mir erst mal, klar. Ja. Ein typischer Spruch von Christoph, ihr habt ja Lack gesoffen. Ich habe ein Dokumentenverwaltungssystem, um das mal ganz platt und ketzerisch zu sagen. Und darin kann ich auf einmal Copiloten erstellen. Natürlich. Und dann habe ich das angeguckt, was die sich darunter vorstellen und ja. Ja, ja, doch, doch, geht schon. Der Gedanke ist nämlich, dass man dann speziell auf die Sachen, die in einer Sharepoint-Zeit sind, den Copiloten anwendet. Dass er nicht mehr overall geht über alle Sharepoints, auf die ich Rechte habe, sondern man geht dann zum Beispiel auf einen sehr gut gefüllten, keine Ahnung, Sharepoint-Abteilungslaufwerk oder so und holt nur da die Informationen raus. Also ein Abteilungs-Sharepoint. Ich habe Laufwerk gesagt. Scheiße, jetzt weiß jeder, wie ich zu Sharepoint stehe. Ja, okay, also Abteilungs-Sharepoint als Möglichkeit. Und dann gibt es was, da haben wir schon relativ lange drüber gesprochen, Thorsten, und zwar das Thema Team-Copilot. Ich habe einige Posts heute schon gesehen dazu im Social Media. Es gab so ein paar Aussagen. Und ja, Thorsten, da würde ich ein paar Minütchen vielleicht mal drauf verwenden, darüber zu reden. Was ist denn dein Verständnis für den Team Copilot? Anschnallen fast nur sieht also ich habe keine ahnung ich habe es nicht verstanden weil es gibt ja schon einen Copiloten also für mich ist das erste was schon mal wieder auffällt es gibt einen Copiloten in teams warum jetzt noch ein team Copilot wo ist das essen also neues produkt irgendwie schon mehr verwirrung ja Team Copilot. So, dann, was ich aus den Social Medias rausgenommen habe, aus dem Video, was Microsoft auch dazu produziert hat, natürlich wieder schön marketingkonform, müssen wir dann erstmal abwarten, was wir überhaupt bekommen werden an Funktionalität, was sie so vorgestellt haben. Macht das für mich persönlich, meine persönliche Meinung, keine MVP-Meinung, keine Insights, keine NDAs, nur das, was ich öffentlich gesehen habe, macht das für mich so ein bisschen den Eindruck, dass vielleicht ist es dem einen oder anderen aufgefallen, es gibt momentan Es gibt sehr viele AI-Bots, die sich in irgendwelche Meetings mit reinnehmen, für mich automatisch Notizen machen, dies und das und dann gibt es hinterher eine schöne Zusammenfassung und ich glaube, das hat so manches Unternehmen ein wenig unterschätzt, wie viele Mitarbeiter auf einmal AI-Bots in ihre Meetings mit reinbauen und haben dann im Nachgang festgestellt, wie schwierig es ist, diese AI-Bots auch wieder aus der Umgebung rauszuholen. Zu bekommen, die Rechte wieder zu entfernen und allem, was dazugehört, ich unter Umständen irgendwie einen Data-Leak habe, weil der AI-Bot dann vielleicht irgendwie aus China oder sonst wo herkommt, keine Ahnung, und ich glaube, genau da versuche ich gerade Microsoft anzusetzen, dass sie eben nicht mehr auf Third-Party zurückgreifen müssen, sondern wir das ganz über Microsoft bekommen und uns dieser neue Team-Member, der virtuell ist, ein Bot, dann eben Notizen erstellt und so, aber so richtig verstanden habe ich es ehrlich gesagt nicht, weil Ist das diese Copilot-Ausprägung, wo ich sagen kann, lieber Copilot, ich kann an diesem Meeting nicht teilnehmen, aber ich habe Interesse an dem Meeting und ich bekomme Nachrichten. Nach dem Meeting eine Zusammenfassung aus dem, was in dem Meeting passiert ist, als E-Mail zugeschickt. Ist das dieser Team-Copilot? Ist das das, was da drin steckt? Puh, das ist eine schwierige Frage. Ich halte diese Beschreibung, die du gerade gemacht hast, immer noch für so einen Marketing-Gag, den Microsoft vor anderthalb Jahren mal auf irgendeiner Veranstaltung gegeben hat. ganz. Also du hast ja jetzt demnächst diese Follow-Funktion im Outlook, dass du sagen kannst, Ihnen folgen, obwohl ich nicht teilnehmen kann und dann ist Passiert genau das, was der Ralf gerade sagte, dann bekomme ich hinterher eine Chat-Nachricht. Das ist die Zusammenfassung, bla, bla, bla. Das ist dann aber, glaube ich, eher die Kombination aus Copilot und Intelligent Meeting Recap, was wir eben im Premium haben, damit wir diese Inhalte dann bekommen, glaube ich. mhm. Aber ich kann so lese ist, also Meeting Facilitator, dass der sich der Agenda annimmt und Notes macht. Das bedeutet vielleicht, dass er vielleicht ein bisschen auf Timekeeping aus ist und eben Notizen macht. Genau. beim Group Collaborator habe ich jetzt noch nicht so ganz genau verstanden, vielleicht auch eher sowas wie Zusammenfassen von Chats und diese vielleicht zur Verfügung stellen und vielleicht die Nachverfolgung von irgendwelchen Tasks ja, das auch Delegierung mein davon. ähm, ist das, was hier steht, ne? Okay, der Group Collaborator ist aus meiner Sicht, wenn ich das so lese, derjenige, der versucht, über den Chat, beziehungsweise aus unterschiedlichen Quellen die Tasks zusammenzutragen. Das heißt, du gibst denen den Auftrag, dass zum Beispiel aus Gruppenunterhaltungen, aus Teammeetings, also aus Meetings aus einer bestimmten Gruppe heraus, die Aufgaben zusammengetragen werden und dann hast du eben nicht nur diesen, ich habe ein Meeting und da habe ich meine Tasks drin, sondern ich habe auch noch ein anderes Meeting, was die Tasks hat und die werden zusammengebracht. Das ist das, was ich darunter verstehe und du hast das in Kombination mit dem Projektmanager auch nochmal als richtige Kombination, dass du die Tasks dann auch besser nachverfolgen kannst, also wenn es dann heißt, da gibt es ein Deadline zu, dass auch das mit berücksichtigt wird. ist mein Verständnis. sind die weiterführenden Links eine Wiederholung von den Informationen auf dem Book of News leider. Ja, leider. Das... wenn ich hier sowas lese wie Copilot will ensure every project runs smoothly by creating and assigning tasks. Ja, Entschuldigung, Microsoft, ihr bekommt das aktuell noch nicht als mit Teams Premium hin, dass ich Tasks aus einem Meeting generiert bekomme. Macht vielleicht erstmal die Baustelle fertig, bevor ihr jetzt mit einem Project Manager um die Ecke kommt. Wo ist da jemand Das ist es halt. also es hängt auch damit zusammen, dass ich mich gerade ein bisschen auf Teams Premium vorbereite irgendwie, weil morgen so ein kleiner Event ansteht und an vielen anderen Community-Projekten das Teams Premium Thema ist und für mich sind das einfach so, Also, das, was ich halt gerade schon eingangs sagte, Microsoft verspricht immer halt viel in ihren Marketing-Slides und macht immer viel und du kannst dies und du kannst das und wenn du dann wirklich mal anguckst, Teams Premium gibt es jetzt seit über anderthalb Jahren und es ist immer noch nicht in der Lage, mir aus einem, obwohl ich Intelligent Meeting habe, obwohl ich dafür Geld zahle, Da kann es mir zwar textmäßig die Aufgaben rausgeben, aber ich habe keine Möglichkeit daraus, einen Task in To-Do, Outlook, Planner zu generieren. Ich muss den Text rauskopieren und selbst das funktioniert nicht, sondern ich muss dann meine AI-Nodes plus AI-generierten Tasks quasi in ein Notepad rüberschieben, um daraus dann wiederum einzelne Aufgaben bauen zu können. Hat doch nichts mit Effizienz zu tun, sorry. Da zahle ich auch keine 8 Euro im Monat für so ein scheiß Add-on, für ein Add-on, was dann nur 90% der Arbeit macht. mir gerade das Marketing-Video an zu diesem Team-Copilot. Was ich hier sehe, ist, dass das quasi kein Automatismus ist, sondern dass das, Bei den Tasks schon so ist, dass man den einen oder anderen Sign bekommt von Copilot, aber dass viel davon auf Aufforderung passieren muss. Also ich fordere auf, Copilot hier in Aktion zu treten und auch das, was du gesagt hast, dass irgendwie getrackt werden soll, dass irgendwelche Tasks bearbeitet werden oder abgeleitet werden und dann in den Planner kommen oder so, das muss man ihm auch sagen, beziehungsweise man muss ihm sagen, wir möchten dich in diesem Meeting gerne als Assistenz dabei haben. Er ist so der stille Zuhörer, glaube ich. Der Typ, der in letzten nur, wenn du das willst, ja, also... ist schon ein bisschen so spannend auf jeden Fall. Kann ja unter Umständen in nicht so gut strukturierten Unternehmen das ein oder andere an Progress bringen. Kann aber auch in nicht so gut strukturierten Unternehmen vielleicht zu mehr Chaos führen. Was ich zumindest entnommen habe und ich glaube, da sind zumindest alle M365 Kunden, die den Copilot lizenziert haben, ist, dass es keine neue Lizenz sein wird, sondern dass es eben für alle Kunden, die den M365 Copilot lizenziert haben, zur Verfügung stehen wird, wenn er dann irgendwann da ist. Also, Leute, ihr müsst zumindest schon mal nicht tief an die Tasche greifen, um euren Team-Copilot, nicht Teams-Copilot, den Team-Copilot nutzen zu können. Wuhu! Konfetti bitte, Michael. Ja, so macht man das ja. Ja, weiß ich nicht, du bist der Apple-Mann. Guck mal, ja, Ja, guck mal, der Christoph hat es direkt falsch geschrieben. Unfassbar, Christoph. Christoph wollte nochmal auf Loop eingreifen. Das ignorieren wir alles mal. Loop ist doch eine komische Baustelle von Produkt. Da kann ja Christoph bestimmt das nächste Mal was dazu erzählen. Das machen wir dann vielleicht im... haben wir denn Christoph im Talk Im Sommer vielleicht nochmal. Mal gucken. Er weiß noch nichts von seinem Glück, aber er schaut uns ja gerade zu. Von daher passt das ganz gut. Aber er meint, ich hoffe oder ich glaube, dass er den Team Copilot meint, der dann im Endeffekt auch die Meeting Notes mit benutzt. Und da sind wir ja quasi wieder bei Loop. Vielleicht haben wir ja bis zu dem Gespräch mit Christoph dann im Sommer nochmal ein bisschen mehr Informationen. Ich möchte vielleicht in Salzburg. Wir könnten da ja vielleicht mal irgendwie eine coole Action planen. Ja, können wir, wir brauchen, ach Gott, jetzt müssen wir wieder einen Raum organisieren. einen Team-Copilot, der uns Tasks generiert und Notizen macht, bitte, der hier mitschreibt. Ja, also jetzt brauchen wir hier keinen. Hier bräuchte man einfach nur einen anderen Bot. By the way, es gibt ganz viele von diesen Bots. Das ist auch total... Die kannst du als Repräsentant ausschicken. Das finde ich so strange. Okay, ähm... Gut, wir haben noch einen Punkt, den ich nicht verschweigen möchte, denn der betrifft unseren sicheren Hafen und der dreht sich um Teams und natürlich GoPilot. Die Sachen gibt es witzigerweise schon auf der Roadmap. Ja. Das ist schön, weil ich war so ein bisschen erschreckt, dass meine Annahme von wegen, ich starte einfach das Transcript in einem Meeting, nicht automatisch dazu geführt hat, dass ich ein Meeting-Recap bekommen habe. Das gibt es dann jetzt. Das ist gut, finde ich. Und Die Begeisterung schwappt über, ist total ansteckend, total super hier. Sehr ist. Also, ich finde ja noch so ein paar Themen, also wenn wir Richtung Power-Plattformen gehen, finde ich ja tatsächlich so ein paar Sachen auch total cool. Ich habe jetzt gelesen, dass in Power-Plattformen, war das in Power-Plattformen oder war das noch in Logic Apps, dass es eine native Git-Anbindung gibt, was ich super gut finde, um zum Beispiel den Code auszuprobieren. Oder das, was man erzeugt hat mit Clicky Bunty, dann auch sicher und reproduzierbar wieder weggespeichert hat. Also so eine Sachen finde ich mega, mega, mega cool und sind dringend notwendig auch, weil ja gerade Power Apps dazu einladen, eine Schatten-IT zu erzeugen. Wenn man das richtig angeht, dann ist dieses, das hört sich, das ist für viele ITs ist es tatsächlich ein Problem. Wenn man das allerdings richtig angeht, dann ist das eine Entlastung für die meisten ITs, weil nicht alle Dienste oder nicht alles, was die damit machen wollen, ist gleich harmvoll und böse. Man muss ihnen, also den Fachabteilungen, einfach nur dabei helfen, wie man das richtig anstellt, ohne dass das in ein Chaos landet. Also Beispiel aufgemacht, also irgendeiner findet die Power Apps cool und er findet irgendwas Tolles für seine Abteilung. Und dieser Mitarbeiter verlässt das Unternehmen, weil er in Rente geht und auf einmal pflegt das Ding keiner mehr und man kommt auch nicht mehr dran, weil der Mitarbeiter nicht mehr da ist. Und also eine Scherze. Damit wird dann natürlich Power Apps dann zu einem Problem. Dafür gibt es aber echt super tolle Lösungen. Also wer sich dafür interessiert, es gibt da auch in unserer MVP Community ganz tolle Leute, die sich damit auskennen, wie zum Beispiel Luise Frese. Die Female Power Apps macht und umsetzt, nur um ein Beispiel zu nennen, da sind noch ganz viele andere und ich entschuldige mich jetzt schon mal bei allen, die ich nicht genannt habe, in diesem Atemzug, aber da gibt es ganz viele Konzepte, die einfach da die IT unterstützen, wie man das Thema richtig angeht, also zum einen tolle Sachen zu entwickeln und zum anderen sie so zu entwickeln, dass sie nachhaltig und verwaltbar und wartbar sind, denn das ist nämlich die große Challenge an diesen Themen. Aber finde ich, finde ich total cool, solche Sachen. Ich möchte jetzt nochmal zurückkommen zu dem sicheren Hafen. Also auch wenn Thorsten das nicht feiert. Ich möchte Doch, über... das. ich bin nur der innerliche Feierer. bist der innerliche Feierer. in der letzten Reihe sitzt und still und heimlich sein Kätzchen anzündet und sagt Happy Birthday und dann pff, Ja, ja, ja, okay. Vielleicht nimmst du ja jetzt das Folgende mit. pass auf, halt dich fest. Es war Teil der Keynote, wenn ich es richtig verstanden habe. Ich habe sie nicht geguckt, aber ich habe das im Nachgang gehört. Ich habe gehört, Satya war da. Ja, ja, das macht er öfter. Hier, Custom Emojis and Reactions. So, jetzt aber Konfetti, oder? Das ist echt bottomless, hätte ich gesagt. Im Guten oder im Schlichten? Ja. Mega. Ich bin's gut. Custom Emojis und Reactions. Ich hatte mal einen Kunden, der wollte Skype for Business nicht einführen. Der kam von Lotus Notes, weil er dort keine, hatte ich dir schon mal erzählt, er, schlechteste der Welt, Lotus Notes. Weil man bei Skype for Business keine GIFs hochladen konnte, keine eigenen und deswegen, was aber in Lotus Notes funktioniert und deswegen wollte er kein Skype for Business einführen, weil ich in nachrichten kann, keine Custom GIFs einführen können. So und genau in die Richtung geht das, glaube ich. Also eine kleine Frage Kontakt von mir habe und dann tolle Sachen machen kann als Reaction. Ja, also es war nicht Lotus Notes, sondern Sametime, das an Lotus Notes gehangen hat und man konnte in Sametime tatsächlich Custom Emoticons einfügen, genau, das war der Punkt hier an der Stelle, richtig, hast du schlechteste Software der Welt, schade, dass du ihn deswegen nicht bewegen konntest, das zu migrieren, aber... Druck war dann größer, er hat dann schon Scarver Business implementiert, ging halt nicht anders, aber damit können wir es lösen jetzt. Das war auch eines der größten Probleme bei einem anderen Kunden damals noch zu Lyng-Zeiten. Das war auch das, wo die meisten, witzigerweise die ITler, hauptsächlich geweint haben drüber. Es ist total witzig, das von euch zu hören, dass sowas ein Problem darstellt und dass das so wichtig ist, dass das in die Kino da fließt. Ja, Entschuldigung. Aber guck mal, es ist Update will be in Preview next month. Ja, hör mal. Das heißt, wir kriegen das schon nächsten Monat. Stark. es da schon einen Learn-Artikel, wo beschrieben ist, was ich denn für Bilder benutze? Dann gehe ich schon mal in Produktion jetzt. Dann stelle ich das Arbeiten ein und produziere schon mal Custom-Emojis. war schon wieder dieses Du teilen wir spontan 25.000 Kollegen ein, die es auf jeden Fall genauso hart feiern werden wie du, Michael. Die haben jetzt schon ihre Bilddatenbank mit 8,5 Terabyte, sind die schon am Konvertieren, damit wir das in Custom-Emojis hochladen können. Ja. Und wir kriegen mit diesem Slash-Command dann auch mehr Funktionen endlich in diese Schreiberbox. Ich weiß nicht, wie man das richtig sagt. Wie heißt denn das? Also da, wo ich hingebe? Ne, oben in die, da geht es doch um Nee, nee, nee, eben nicht in die Searchbar, sondern direkt unten in das Ja. Endlich kriege ich mal eine Reaktion. Meine Güte. ich flippe aus. das ist vielleicht ein bisschen drüber aber das, was man jetzt im neuen, ich weiß gar nicht, ob es eine Funktion, ich glaube, es ist eine reine neue Outlook-Funktionalität, da kann ich ja auch so ein Slash reinbauen, dann schickt er mir quasi Dateien vor, die ich anhängen möchte oder aus dem OneDrive Beispiel genauer Copilot, wenn ich dort auch Slash mache, kann ich auch sagen, wollen wir darauf also so komisch ich ja den Copiloten finde, ich bin ja da doch irgendwie kritisch und so weiter und so fort, habe ich gestern ein Beispiel gesehen, das hat mich schon vom Stuhl gehauen. Das war nur eine Tabelle mit, also es war auch so ein Microsoft Learning Kurs auch, war nur eine Tabelle voll mit Zahlen, Quarter Earnings, Blablabla mit Überschriften und dann waren Zahlen über Zahlen über Zahlen über Zahlen und die Aufgabe war, mach folgenden Prompt in Word, schreibe mir dazu irgendwie einen Financial Review Blablabla Feedback Session und der hat echt drei Seiten produziert, Fließtext, drei Seiten Fließtext mit den gesamten Zahlen drin, das fand ich schon beeindruckend. Also es ist, wahrscheinlich lachen sich jetzt unsere Zuschauer tot und denken, was ist mit dem Pickern los? Das ist so eine Grundfunktion, die Copilot irgendwie, aber ich habe das erste Mal wirklich ein Action gesehen, hatte mal einen Anwendungsfall dafür und war begeistert. Ich fand es gut. Und wenn ihr... Copilot entdeckt. Und wenn ihr noch ein paar mehr von diesen Highlights miterleben wollt, dann schaut gerne auf Meetup nach der Teams User Group. Dort findet am Anfang des nächsten Monats wieder das What's New statt. Da werden wir uns ganz ausführlich auch um die Sachen kümmern. Das ist auch mitreferenziert. Es gibt dazu schon den neuen What's New Artikel in Teams. Wie man aus einem Word-Dokument mit vielen Zahlen einen Flea-Sticks produzieren kann. immer noch dieses Slash und so. eigene Emojis bauen. Okay, Emojis vor jedem du von Basic-Funktionen des Copilots so begeistert bist, das habe ich jetzt einfach mal hingenommen. so. Ei, ei, ei. reibst, so wie es dir gedisst hier in der Sendung. Nö, ich fühle nicht gedissert. Nee, du nicht. Ich? Das ging ganz klar an den Exchange-Programmierer. Ich werde jetzt erstmal den Code öffnen und sagen, wenn dann ein Platner um die Ecke kommt, Outlook alle drei Sekunden abstürzen lassen. Egal, ob auf oder auf Gott sei Dank keine Mails mehr. ich einbauen. Nur, dass du Bescheid weißt. Das wird ein großes Ding. freue mich auf den Termin mit dem Thomas in zwei Wochen. muss ich mal gucken, was er von deinen Ideen habe Also, als mein Punkt rausgefunden oder rausgesucht aus den vielen News, die so rausgehauen wurden und das sind die AI-Flows in Power Automate und die finde ich total faszinierend. Ihr habt gerne gesagt, wie kann ich denn selber mit Copilot und dem ganzen Zeug, also zum einen natürlich in Copilot Studio kann man super tolle Copilots für sich selbst bauen, aber mit AI-Flows kannst du genau sowas machen, wie du gerade eben mit Beschrieben hast, wo du quasi Outcome-Based Automation machen kannst mit generativer künstlicher Intelligenz und kannst einen Flow bauen, der autonom losrennt und sich das baut und du beschreibst es einfach nur, was du machen willst, das finde ich total geil und der stellt dann einen Flow für dich in den Power Apps, das finde ich super. Also sowas ähnliches, wie du beschrieben hast diese nicht auch schon, dass ich dem Copilot sagen konnte, im Power Automate machen wir folgenden Flow und dann hat der einen Flow gebaut? Oder ich verstehe es gerade nicht. du kannst jetzt mit AI Flows, kannst du quasi beschreiben, wie der Flow aussehen soll und der baut dir den Power Automate Flow. Findest gedacht, das könnte er schon. Ja, ja, wir Soweit ich das verstanden habe, baust du halt nicht über deine Texteingabe einen Flow, sondern du kriegst halt was zurück über Was auch generative AI nutzt innerhalb deines Flows. Das ist, glaube ich, so der große Unterschied. Ich möchte vielleicht noch so ganz, ganz am Schluss, wirklich ganz am Schluss, nur noch mal ganz schnell über die Punkte hinwegrushen, die mir noch als Highlights aus dem Microsoft 365-Welt noch aufgefallen sind, aber ich die nicht richtig bewerten kann. Das muss ich dazu mit einräumen. Das ist zum Beispiel das Thema, dass Mesh eine AI-Erweiterungsfähigkeit bekommt, also dass man die Möglichkeit hat, auch AI für Mesh mit einzubinden. wird es eine Sandra total freuen, Sandra Kiel. Mich persönlich, ich kann das entsprechend nicht bewerten. Genauso wenig wie das Fluid-Framework in der 2.0-Version. Ich weiß, dass das an vielen Stellen ein ganz, ganz wichtiger Punkt ist, unter anderem für Loop, aber auch für Integration von Informationen. Also mehr zu deinem ersten Punkt ganz kurz was gesagt, also gerade mit dem Multimodal LLM von Azure OpenAI, also mit dem das Sprechen, Sehen, Hören kann, Stell dir das in einer 3D-Welt vor und was du mit dem Input anstellen kannst. Also stell dir vor, dass der AI-Service in der Lage ist, zu sehen, was der Benutzer sieht und darauf zu reagieren. Und das ist natürlich eine sensationelle News. Das weiß ich kannst jetzt, ja, du kannst mithilfe von Mesh ja eine 3D-Welt erstellen und kannst jetzt mit dem Multimodal-Service von OpenAI darauf reagieren. Also du kannst den Input, den du siehst quasi, das ja ein Stream ist, kannst den an OpenAI geben oder per irgendeine User-Interaktion dafür sorgen, dass das nach OpenAI geht und kannst es analysieren lassen oder vielleicht sogar verändern, also verändern. Mithilfe von, was weiß ich, stell dir vor, du hast ein Mesh aufgebaut, das für Architekten irgendein Haus pflanzt auf irgendeine Stelle an einer grünen Fläche und der Kunde möchte jetzt irgendwas verändern und der könnte dann zum Beispiel sagen zu diesem Service, der da gebaut wurde, verschiebe den Eingang um zwei Meter nach links und verschiebe. Mit Hilfe von OpenAI ist dieses System dann auf einmal in der Lage zu sagen, erstens zu detekten, wo ist denn diese Tür, zweitens die Sprache wahrzunehmen von dem User und dann drittens mit einer Aktion dafür zu sorgen, dass diese Tür weiter zwei Meter nach links geht. Also das ist so ein Anwendungsfall, den ich mir super gut vorstellen kann, als kleines Beispiel, wie das in Mesh denn dann ankommt. Also das ist ja total mega cool, sensationell. Sorry. Okay, Leidenschaft, ich find's gut. Ja, ja, ja. gebe ich dir nochmal zum Schluss diese Bühne für SharePoint Embedded. Wenn du das möchtest. Ansonsten, das Thema wurde ja Ende letzten Jahres schon vorgestellt. Das heißt, ich habe einen Layer, bei dem verschiedene Applikationen in dem gleichen Storage-Dataleg quasi die Applikationsinformationen ablegen beziehungsweise die Applikationsdaten dann auch mithalten, die aber wiederum, obwohl sie im gleichen Lake sind, noch rechtlich getrennt sind, also verbunden. Andere Rechte darauf sind und exklusiv für diese eine Applikation dann zur Verfügung steht. Die ist jetzt dann GA und ich glaube, dass da auch ganz, ganz viele die Möglichkeit haben, aus der Entwicklersicht tatsächlich abgekapselte Apps zu schreiben und zu bauen. Gleichzeitig aber das Thema Datenspeicherort und Anpassung Größen und solche Geschichten sehr gut zusammenzubauen. Das ist nochmal eine ganz gute Schicht aus meiner Sicht dazwischen für Office Applikationen, also eher Richtung SharePoint, deswegen auch SharePoint Embedded, dass du da die Möglichkeit hast, das viel mit ihnen zu integrieren. Loop ist zum Beispiel eine App, die darauf, also die so geschrieben ist. Das ist schon eine App und wie gesagt, seit Ende letzten Jahres schon geöffnet von von Microsoft und über die API ansprechbar, ausschließlich über API ansprechbar, jetzt dann auch als GA. Vielen Das waren so meine Highlights, die ich tatsächlich noch mitgenommen habe. Okay, super cool. Für die Windows-Devs da draußen würde ich noch mal zwei, drei Sachen sagen wollen, weil Thorsten hat ja seine coole Copilot-Taste vorhin gezeigt, die er jetzt auf seinem Surface 6 hat, leider nicht 7, haben wir auch schon genug drüber gesprochen. merke schon, wie du gediszt wirst auf jeden Fall hier, Thorsten. Ich merke das. Ich brauche auch ein Control Panel und ich möchte ganz gerne die Funktion haben, dass ich Gäste muten kann und dass ich auf Wunsch auch Gäste einfach rauswerfen kann der Session. Gerade eben war er noch dankbar, dass ich da bin und schon ist er ein undankbarer schnell ändert sich Blatt, wendet sich Du musst dich nicht wundern, dass er getestet hat. Ehrlich, Thorsten. Aber solche Gemeinheiten kann ich nicht einfach so stehen lassen. Also, es gibt die Windows Copilot Runtime und die Windows Copilot Library jetzt zur Verfügung, das heißt, wenn ihr Windows-Entwickler seid und ihr entwickelt Anwendungen für Microsoft Windows, dann habt ihr damit jetzt eine super Möglichkeit, eure App auch smart zu machen, ohne dass ihr mit dem AI-Studio loslegt, wenn ihr euch ein Copilot dazu bauen wollt. Das finde ich total cool. Lustig finde ich auch die Verwandtschaft von Windows Semantic Index, also ihr hattet vorhin auch schon mal Semantic Index gehabt, es gibt einen Abstraktionslayer, mit dem man AI-Apps entwickelt und der heißt Semantic Kernel und ich glaube Semantic Kernel ist die Basis für Semantic Index, das macht zumindest Sinn aus meiner Sicht. Developer-Sicht. Genau, die beiden Dinge sind mir noch aufgefallen, als ich da vorhin drüber geflogen bin, die sind vielleicht gar nicht so schlecht, Copilot Library gibt euch die Möglichkeit, OCA und solche Sachen zu bauen, Translations mit zu embedden und stuff, also total cool und mit dem Semantic Index Index Was ich hier gerade gelesen habe, ist, das geht Richtung Copilot Plus, also auch nicht so schlecht zu benutzen für native Windows-Apps. So, nochmal die Dev-Kurve gekriegt. Geil. Ich war froh, dass wir da raus waren, Mensch. Das Dass dumm, da muss ich mich nicht einladen. Also sehr, sehr cool, wie Thorsten es schon relativ am Anfang gesagt hat, sehr cool, jemanden auch dabei zu haben, der tatsächlich Anfang, das war quasi schon im letzten Drittel mein Freund. Der das noch mal ganz gut bewerten kann. Dankeschön, das hast du am Anfang gesagt, Herr Kollege, in der Mitte und am Ende. Du konntest quasi auch nichts anderes sagen. Von daher... Der war jetzt ja hart. Oh, ja, ja, ja. Ich bin das ja gewohnt. Ich bin ja alle zwei Wochen mit dem Kollegen zusammen. Sehr gut, sehr gut. Habt ihr noch ein dringendes Thema, was ihr hier gerne loswerden wollt? Dann Außer die Leute, die sich für AI interessieren, dass die sich wirklich die Code-AI anhören sollten, habe ich erstmal kein Thema, Michael. Hashtag schamlose Werbung. Sehr gut, genau so soll es sein. Ich sage erstmal ganz, ganz herzlichen Dank, Ralf, für diese Einsortierung, für diesen Überblick an den Funktionen. Mir hast du wieder einiges erklärt, was ich in meinem Alltag nie brauche, aber jetzt verstehe, was an Highlights damit dazukommt, warum das vielleicht einen unterschiedlichen Aspekt für jemanden, der dort tiefer drin ist. Geben kann. Vielen, vielen Dank. Dafür Funktion des Herzchens schicken irgendwie. Bevor die Reactions be-restreamen. Danke, Ralf. Danke euch für die Einladung. Sehr gerne, immer wieder gerne bei uns und damit würde ich sagen, wir verabschieden uns für diese Runde. Ihr habt das nächste Mal, wie gesagt, das Vergnügen, einen Exchange-Spezialisten mit dabei zu haben, der sich hoffentlich mal direkt den Thorsten vornimmt und dem erklärt, was der alles an Blödsinn zusammenprogrammiert. Wir freuen uns auf den Thomas beim nächsten Mal. Und bis dahin teilt es gerne alle mit allen, die ihr kennt, die Erfahrung haben wollen mit Entwicklung, die vielleicht einen Einstieg haben wollen mit Entwicklung im AI über das entsprechende Studio und natürlich mit allen, die schon immer mal verstehen wollten, was auf so einer Bild tatsächlich ein Highlight ist. Ach ja, und natürlich mit Hund, Katze, Maus, Oma, Opa, Onkel, Tante. Und damit bis zum nächsten Mal. Ciao. Ciao.