Wie auch im letzten Jahr findet die Microsoft-Build-Konferenz im Washington State Convention Center in Seattle statt.
Doch diesmal war im Vorfeld zu hören, dass die Konferenz nicht ausverkauft sein wird. Was an zwei Dingen liegen mag: 1. Gleichzeitig findet die Google I/O-Konferenz statt und 2. hat Microsoft in den letzten ein, zwei Jahren nicht die großen Kracher auf der Build verkündet. Vor Ort ist davon wenig zu merken. Vor der Keynote ist eine scheinbar unendlich wirkende Schlange die sich durch den ganzen Park hinterm Convention Center zieht.
Gespannt sind alle Besucher natürlich auf die Keynote, in der die meisten Neuigkeiten erwartet werden. Gehalten wird sie wieder vom Microsoft-CEO Satya Nadella, welcher sich als Unterstüzung immer wieder weitere Sprecher wie Scott Hanselman auf die Bühne bittet. Das Motto der diesjährigen Keynote war „Intelligente Could and Intelligent Edge“. Wer Infos zu Windows erwartete wurde enttäuscht. In der gesamten dreistündigen Keynote viel maximal zwei oder drei mal das Wort Windows (und das auch nur als Anmerkung, dass das Produkt nicht ausschließlich unter Windows läuft). Dieses zeigt, was auch schon vor der Build immer offensichtlicher wurde: die Neuausrichtung von Microsoft. Alles hat sicher der Cloud unter zu ordnen, auch Windows. Dementsprechen ging die Keynote beinahe ausschließlich um Azure und deren Dienste wie Cognitive Servies oder Machine Learning.
Nach der Einführung in das Cloud-Thema kam das erste Highlight zum Thema „Azure IoT Edge“ als Demo von Sam George. Er ließ live auf der Bühne eine Drohne fliegen, die Beschädigungen an Rohren erkennen sollte und dieses ohne Verbindung zu Azure. Das Model zur Erkennung wurde vorher durch einen Container auf die Drohne gespielt.
Das nächste große Thema war „Azure AI“. In diesem Bereich gabs es einige Neuankündigen, aber ohne eine große Überraschung. Es wurden kleinere neue Features wie zum Beispiel im Bereich „Bot Framework“ gezeigt. Außerdem viel der Startschuss für Project „Brainwave“. Brainwave ermöglicht den Kunden in Azure effizient künstliche Intelligenz zu trainieren und das Modell lokal in Echtzeit auszuführen.
Auch Project „Brainwave“ zeigt wohin der Trend bei den IoT-Devices geht. Weg von den „dummen“ Geräten, die einfach nur Daten an die Cloud senden, hin zu Geräten die eine gewisse Intelligenz besitzen.
Die erste kleine Überraschung kam, als es eine gut funktioniernde Live-Demo zu Cortana & Alexa gab. Megan Saunders, General Manager Cortana, und Tom Taylor, Senior Vice President Amazon Alexa, präsentierten die Zusammenarbeit von Cortana und Alexa. Im Cloud-Bereich sind Microsoft und Amazon die größten Konkurrenten, aber hier wird zusammengearbeitet und integriert.
Generell waren in dieser Keynote die Demos und Videos sehr interessant. Gezeigt wurden oft Beispiele, von neuen Features, welche bereits von Kunden eingesetzt werden. „Remote Assist“ von Microsoft soll Kunden vor Ort mit den bestehende Fähigkeiten der HoloLens unterstützen. Gibt es zum Beispiel ein Problem mit einer Maschinen kann dieses oft gelöst werden, ohne dass ein Techniker direkt vor Ort sein muss.
Da wir uns auf einer Entwicklerkonferenz befinden und deswegen natürlich sehr viele Entwickler im Publikum sitzen, ging mit das größte Raunen durchs Publikum als ein neues Feature für Entwickler vorgestellt wurde: Visual Studio Live Share. Das Codereview wird mit diesem Werkzeug auf eine neue Ebene gehoben und ist viel mehr als nur ein Bildschirm teilen. Im Visual Studio/Visual Studio Code wird nicht nur eine einzelne Datei geteilt, an dem der Entwickler arbeitet, sondern der ganze Arbeitsbereich. Mehrere Dateien können gleichzeitig bearbeitet werden. Es kann gemeinsam gedebuggt werden. Deide Seiten haben das gleiche Debug-Erlebnis wie in einer lokalen Session. Auch der lokale Webserver kann geteilt werden.
Auch ihrer sozialen Verantwortung wird Microsoft gerecht. Mit „AI for Accessibility“ lieferte Microsoft hier den emotionalen Höhepunkt der Keynote. In den nächsten fünf Jahren stellt Microsoft 25 Millionen US-Dollar in einem Programm Entwickler, Universitäten und NGOs zur Verfügung um Anwendungen für Menschen mit Einschränkungen zu entwickeln.
In einem Video wurde ein Beispiel einer Universität gebracht, in dem Menschen, die Einschränkungen im Bereich Hören haben, aktiv an Vorlesungen teilnehmen können. Der Vortrag des Professors wird in Text umgewandelt und den Teilnehmer zur Verfügung gestellt. Bis hierher noch nichts beeindruckendes, das Interessante hierbei ist, dass die Teilnehmer sich die Sprache aussuchen können, in der sie den Text verfolgen wollen. Es wird live durch die Cloud übersetzt. Auch werden Fragen aus dem Publikum einbezogen und gekennzeichnet. Auf der Build konnte dieses Feature live getestet werden. Bei allen Vorträgen wurde das Gesagte live in Text umgewandelt. In einem Vortrag war es möglich, die Übersetzung auf dem Handy mit zu verfolgen. Hier muss aber leider gesagt sein, dass die Übersetzung ins Deutsche suboptimal ist. Wer nur den deutschen Text liest, ohne dem gesprochenem Wort zu hören, kann maximal erahnen worum es geht.
Insgesamt war die Keynote sehr interessant mit vielen coolen Demos und Videos. Wer sich diese noch mal ansehen möchte kann dieses auf folgender Seite machen: https://developer.microsoft.com/en-us/events/build
Morgen gibt es eine weitere Keynote zum Thema „Microsoft 365“. Wir sind gespannt was hier vorgestellt wird. Aber eins ist sicher, hier wird das Wort Windows öfters fallen.