Überblick über Sprecher und Vorträge für den BTD12 am 7. Juni 2019

Künstliche Intelligenz

Building a Useful Chatbot: Beyond the ML and NLP (auf Englisch)

Dr. Andreea Hossmann, Principal Product Manager, Data Analytics & Artificial Intelligence, Swisscom

Vor etwa zwei Jahren schienen Chatbots die nächste große Sache seit mobilen Apps zu sein. Inzwischen hat sich die Lage jedoch verändert, da die Chatbots die hohen Erwartungen nicht erfüllen konnten. Die Conversational AI bewegt sich jedoch immer noch mit großen Schritten vorwärts. Der Vortrag geht der Frage nach, wie Unternehmen die Chatbot-Blase vermeiden und trotzdem mit der neuesten Konversationstechnologie Wirkung erzielen können.

Andreea Hossmann ist Principal Product Manager für Data, Analytics und AI bei Swisscom. Darüber hinaus ist Sie Venture Associate und arbeitet mit Swisscom Ventures zusammen, um KI-Startups weltweit zu bewerten. Während ihrer 3,5-jährigen Tätigkeit bei Swisscom war Andreea Senior Data Scientist, bevor sie ein Data Science-Team zusammenstellte und leitete, um an AI-Themen zu arbeiten. Dieses Team beschäftigt sich mit Themen wie dem Verständnis der natürlichen Sprache und Suche. Sie ist eine erfahrene Forscherin mit einem Hintergrund in angewandtem Machine Learning, Netzwerkwissenschaft und Computervernetzung. Zu diesen Themen hat Andreea Hossmann an der ETH Zürich promoviert.

AI-Showcases II: Ein KI-Prototyp, der Schafkopf spielt und AI/LegalTech: Der NDA Checker

Alexander Sedlmayr und Ulf Briskot, TNG

Ein KI-Prototyp, der Schafkopf spielt: Der Vortrag gibt einen Überblick über die Techniken von Libratus und AlphaGo. Dazu gehören Monte Carlo Tree Search, Neuronale Netze, und Counterfactual Regret Minimization. Zudem wird untersucht, ob bzw. wie man diese im Imperfect Information und Multiplayer Setting von Schafkopf anwenden kann.

Alex Sedlmayr ist Software Consultant bei TNG und hat Mathematik an der LMU München studiert. Er beschäftigt sich mit Spieltheorie und KI und seit neuestem mit Domain Driven Design und Event Sourcing.

AI/LegalTech: Der NDA Checker: In enger Zusammenarbeit mit einer der fünf größten Anwaltskanzleien Deutschlands entwickelte TNG den NDA-Checker als KI-Prototyp für die automatisierte Analyse und Überprüfung von Vertraulichkeitsvereinbarungen (Englisch: non-disclosure agreement, NDA). Den Kern der Anwendung bildet das von TNG entwickelte Textanalyse-Modul. Dieses ist in der Lage, rechtliche Klauseln in NDAs zu identifizieren. Auf Basis dieses Analyseergebnisses bewertet der NDA-Checker den NDA voll automatisch und macht Vorschläge für etwaige Änderungen.

Ulf Briskot hat am Karlsruher Institut für Technologie Physik studiert und in theoretischer Festkörperphysik promoviert. Bei TNG arbeitet er in den Bereichen Projektleitung, Software-Analyse und Architektur sowie Künstlicher Intelligenz.

Building a Self-Driving RC Car (auf Englisch)

Bert Jan Schrijver, CTO, OpenValue

In diesem Vortrag werden wir über die Erfahrungen sprechen, die wir gemacht haben, als wir ein kleines ferngesteuertes Auto in ein autonomes Fahrzeug umgebaut haben. Wir sprechen über Elektronik, Sensoren, KI, Computer Vision und natürlich die Software, die alles miteinander verbindet. Wir geben eine Einführung in die Welt der selbstfahrenden Autos und vergleichen unsere Lösung mit dem, was in den großen Ligen von Teslas Autopiloten und den selbstfahrenden Autos von Waymo gemacht wird. Abschließend diskutieren wir die Herausforderungen und die Dilemmata, die ein Auto mit sich bringt, welches in realen Szenarien von Software gesteuert wird.

Bert Jan ist CTO bei OpenValue in den Niederlanden und konzentriert sich auf Java, Continuous Delivery und DevOps. Bert Jan ist Java-Champion, JavaOne Rock Star-Sprecher, Duke's Choice Award-Gewinner und führt NLJUG, die niederländische Java User Group. Er teilt gerne seine Erfahrungen, indem er auf Konferenzen spricht, für das niederländische Java-Magazin schreibt und Devoxx4Kids dabei hilft, Kindern das Codieren beizubringen. Bert Jan ist auf Twitter unter @bjschrijver leicht erreichbar.

High-End Translation Hybrid Using Artificial Intelligence (auf Englisch)

Christopher Kränzler, Geschäftsführer, lengoo.de

Während neueste Ansätze basierend auf neuronalen Netzen vielsprechende Verbesserungen in der Qualität von Maschinenübersetzungen mit sich bringen, spielen menschliche Fachübersetzer eine immer wichtigere Rolle bei der Einführung dieser Technologien. In diesem Vortrag lernen Sie über die Grundlagen von Maschinenübersetzungssystemen. Wir gehen der Frage nach, welche Stellschrauben die beste Übersetzungsqualität versprechen und worauf es beim Einsatz von Maschinenübersetzung ankommt, um enorme Effizienzgewinne im professionellen Übersetzungsumfeld zu realisieren.

Christopher ist im malerischen Bayern geboren und aufgewachsen. Er machte seinen Bachelor am Karlsruher Institute of Technology und absolvierte seinen Master in Data Science an der Columbia University New York. Er war schon immer ein Verfechter von datengetriebenen Entscheidungsprozessen und ist passionierter Redner zu den Themen AI, Digitalisierung und Lokalisierung. Sein umfangreiches Verständnis und die Wertschätzung von Data Science in Kombination mit seiner Leidenschaft für Sprachen brachten ihn dazu, 2013 die AI-getriebene Übersetzungsplattform lengoo zu gründen. Als Gründer und CEO von lengoo hat er es sich zur Aufgabe gemacht, die globale Lokalisierungsindustrie in das Zeitalter der Digitalisierung und darüberhinaus zu holen. Durch die Kombination einer eigens entwickelten Neural Machine Translation Technologie mit der Kompetenz von Sprachexperten führt lengoo die Adaption neuester Deep Learning Ansätze in der Sprachindustrie an und gestaltet die Zukunft der Fachübersetzung.

In diesem Vortrag werde ich eine Einführung in Deep Learning im medizinischen Bereich geben. Insbesondere werde ich auf die Anwendungen von Deep Learning für das Verarbeiten von medizinischen Bildern und genetischen Daten eingehen. Medizinischen Datenanalyse ist ein Teil von Data Science, der seine eigenen Spezifitäten und Herausforderungen hat, wie beispielsweise die Knappheit und Variabilität der Daten, und in dem der Black-Box-Aspekt einen riesigen Nachteil darstellt. Als Anwendungsfall werden wir die Arbeit von Konica Minolta und der Technischen Universität München vorstellen: Angefangen mit medizinischen Scans und Patientendaten werden wir automatisiert Krankheitsbilder erkennen und relevante Merkmale auswählen, um Modelle und Erkenntnisse von medizinischem Interesse abzuleiten.

Marie Piraud erwarb im Jahr 2012 einen Doktortitel in Physik von der Université Paris-Sud (Orsay, Frankreich) und arbeitete seitdem zuerst als Wissenschaftlerin an der Ludwig-Maximilians-Universität München und danach an der Technischen Universität München. Seit 2018 arbeitet sie bei Konica Minolta als Senior Reseracher im Bereich Digital Healthcare. Dort entwickelt sie sowohl Modelle für multimodale Daten als auch Deep-Learning-Techniken, die zum besseren Verständnis von medizinischen Daten eingesetzt werden. Außerdem ist sie als Gastwissenschaftlerin in der Arbeitsgruppe “Image-Based Biomedical Modeling” der Technischen Universität München tätig.

Deepfakes im SmartMirror - Wie neuronale Netze unsere Welt verändern

Martin Förtsch und Thomas EndresTNG

Stellen Sie sich das mal vor: Sie stehen vor einem Spiegel, sehen aber nicht mehr in Ihr eigenes Gesicht, sondern in das von Barack Obama oder Angela Merkel. In Echtzeit wird Ihre eigene Mimik auf das fremde Gesicht übertragen. Dem TNG Hardware-Hacking-Team ist es gelungen, einen solchen Prototypen zu erstellen und in Echtzeit das Gesicht einer Person auf beliebige andere Gesichter zu übertragen. Die Grundlage hierfür ist der sogenannte Deepfake-Ansatz. Durch die Anwendung neuronaler Netze werden hier Gesichter in der Videoeingabe erkannt, übersetzt und zurück in die Videoausgabe integriert. Durch diese Technik ist es möglich, täuschend echte Imitiationen auf andere Personen zu projizieren. Zum Einsatz kamen dabei in Keras trainierte Autoencoder-Netze sowie verschiedene Gesichtserkennungs-Algorithmen. In diesem Vortrag geben Thomas Endres und Martin Förtsch eine unterhaltsame und sehr anschauliche Einführung in die Welt der Deepfakes in Echtzeit. Dabei gehen sie insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen.

Martin Förtsch ist ein IT-Consultant der TNG Technology Consulting GmbH aus Unterföhring bei München und hat Informatik und angewandte Naturwissenschaften studiert. Hauptberuflich beschäftigt er sich im Rahmen der agilen Softwareentwicklung intensiv mit Test Driven Development, Suchmaschinentechnologien und Datenbanken. Als Intel Software Innovator und Intel Black Belt Software Developer ist er darüber hinaus intensiv in der Entwicklung von Open-Source Software im Bereich der 3D-Kameratechnologien und dem Internet of Things involviert und hält auf zahlreichen nationalen und internationalen IT-Konferenzen Vorträge. Dafür erhielt er u.a. den Oracle JavaOne Rockstar Award.

Thomas Endres arbeitet in der Rolle eines Associate Partners als IT-Consultant für TNG Technology Consulting in München. Neben seiner "normalen" Tätigkeit für die Firma und die Kundenprojekte entwickelt er zusammen mit dem TNG-Hardware-Hacking-Team veschiedene Prototypen - darunter ein Telepräsenz-Robotik-System, mit dem man die Realität aus den Augen eines Roboters erleben kann, oder aber eine Augmented-Reality-KI, die die Welt aus der Perspektive eines Künstlers zeigt. Er arbeitet an Anwendungen im Bereich der AR/VR, KI sowie der Gestensteuerung, um damit beispielsweise Quadrokopter autonom fliegen zu lassen oder berührungslos zu steuern. Darüber hinaus ist er in verschiedenen Open-Source-Projekten in Java, C# und allen Spielarten von JavaScript involviert. Thomas ist studierter Informatiker (TU München) und leidenschaftlicher Softwareentwickler. Als Intel Software Innovator und Black Belt präsentiert er weltweit neue Technologien wie KI, AR/VR und Robotik. Dafür erhielt er unter anderem einen JavaOne Rockstar-Award.

Artificial Intelligence in JavaScript using TensorFlow.js (auf Englisch)

Mathias Burger, TNG

TensorFlow.js kann verwendet werden, um Machine Learning-Modelle zu entwickeln, die auf Node.js oder im Browser ausgeführt werden. Außerdem können bestehende Modelle wiederverwendet oder neu trainiert werden. Unter der Verwendung von WebGL bietet das Framework herstellerunabhängige Unterstützung für die Hardwarebeschleunigung und kann sogar CPU-gebundenes Training übertreffen. In einem Beispiel werde ich zeigen, wie Sie Low-Level-APIs verwenden und einen Gestenklassifizierer erstellen, der Trainingsdaten von der Webcam erfasst.

Mathias Burger ist Senior Software Consultant bei TNG Technology Consulting und beschäftigt sich hauptsächlich mit Proof of Concept-Lösungen mittels Machine Learning. Er begeistert sich für technologischen Fortschritt und die neuste Forschung insbesondere im Bereich Computer Vision. Wenn er nicht gerade an der Tastatur sitzt, geht er gerne Rad fahren oder liest Fantasy oder Science Fiction-Literatur.

Prototyping Biometric Identification Systems (auf Englisch)

Dr. Thomas Stecher und Mathias BurgerTNG

Biometrische Identifikationssysteme sind besonders nützlich in Situationen, in denen Personen keine Ausweisdokumente haben oder diese nicht vorweisen können. Eine mögliche Anwendung ist ein Betrugspräventionssystem für gemeinnützige Dienste, das portabel sein sollte und auf Standardhardware wie Mobiltelefonen ausgeführt werden müsste. In diesem Vortrag werden sowohl klassische als auch Deep-Learning-Ansätze vorgestellt, um die Herausforderung der Ermittlung identifizierbarer Ähnlichkeitsmetriken anzugehen und zu zeigen, wie Open-Source-Software verwendet werden kann, um bereits innerhalb kürzester Zeit erste Prototypen zu bauen.

Thomas Stecher ist Software Consultant bei TNG. Zunächst in der Wissenschaft hat er an einer Vielzahl von Projekten in Chemie und statistischer Physik gearbeitet und sich intensiv mit maschinellem Lernen beschäftigt. Er ist besonders angetan von den statistischen Grundlagen von Machine Learning und seinen vielen Überschneidungsbereichen mit seinen ursprünglichen Studienfächern. Obwohl er im Herzen ein Bayesianer ist, verbringt er aktuell die meiste Zeit mit der Arbeit an Deep-Learning-Anwendungen.

Mathias Burger ist Senior Software Consultant bei TNG Technology Consulting und beschäftigt sich hauptsächlich mit Proof of Concept-Lösungen mittels Machine Learning. Er begeistert sich für technologischen Fortschritt und die neuste Forschung insbesondere im Bereich Computer Vision. Wenn er nicht gerade an der Tastatur sitzt, geht er gerne Rad fahren oder liest Fantasy oder Science Fiction-Literatur.

KI-gestützte Qualitätssicherung im Flugzeugbau

Olaf BeesdoPremium AEROTEC, und Mathias BurgerTNG

Um die hohen Qualitätsanforderungen im Flugzeugbau zu gewährleisten, muss viel Aufwand in die Qualitätssicherung der Bauteilproduktion für Verkehrsflugzeuge investiert werden. Algorithmen der künstlichen Intelligenz bieten dabei großes Potential, einen Teil dieser Prüfungen zu automatisieren und den Qualitätssicherungsprozess zu rationalisieren. Am Beispiel einer automatisierten Auswertung von Ultraschall-Prüfdaten wird gezeigt, wie Material- und Produktionsfehler in großen Flugzeugrumpfschalen mithilfe von modernen Convolutional Networks automatisiert erkannt werden können. Eine wesentliche Herausforderung hierbei ist, mit vergleichsweise wenig Trainingsbeispielen eine gute Vorhersagegüte zu erzielen. Olaf Beesdo besitzt langjährige Erfahrung im Bereich Luftfahrt und arbeitet bei der Premium Aerotec GmbH als Data Scientist, mit dem Schwerpunkt auf Analyse und Optimierung von Fertigungsprozessen mithilfe von maschinellem Lernen.

Next Generation Phenotyping using DeepGestalt in Clinic, Research and Variant Analysis (auf Englisch)

Yaron Gurovich, CTO, Face2Gene / FDNA

Technologien zur Gesichtsanalyse haben kürzlich die Fähigkeiten von erfahrenen Ärzten bei der Identifizierung von Krankheitsbildern übertroffen. Bis heute konnten diese Technologien nur das Erscheinungsbild von wenigen Krankheiten erkennen, sodass ihr Einsatz im klinischen Umfeld, mit Hunderten an zu betrachtenden Diagnosen, nur eingeschränkt möglich war. Mit Hilfe von Computer Vision und Deep Learning-Algorithmen ermittelt DeepGestalt zahlreiche genetische Syndrome, die mit dem Krankheitsbild des Patienten korrelieren. Die Informationen dafür kommen von 2D-Aufnahmen. DeepGestalt erreicht dabei eine top-ten Genauigkeit von 91 % bei der Identifikation von über 200 verschiedenen Krankheitsbildern und hat klinische Experten in drei separaten Experimenten übertroffen. Wir vertreten die Meinung, dass diese Form der KI bereit ist, die Genetik in Klinik-, Forschungs- und Varianzanalysen weiter voranzubringen. Diese wird in Zukunft eine entscheidende Rolle in der Präzisionsmedizin spielen. Im Rahmen meines Vortrags werde ich die Technologie, die hinter DeepGestalt steckt, erläutern sowie ihre Verwendung demonstrieren.

Yaron Gurovich ist Chief Technology Officer bei FDNA. Er verfügt über viel Erfahrung im Bereich Computer Vision, Machine Learning und Deep Learning sowohl in Bezug auf Forschung als auch in der Produktion. In den letzten 6 Jahren erforschte und entwickelte er Technologien im Bereich seltener genetischer Erkrankungen. Dabei wendet er sein Wissen und seine Methoden an, um dieses wichtige Feld auf die nächsten Stufen des Next Generation Phenotyping zu bringen.

Architektur & Design

5 Jahre Microservices - Lessons Learned

Alexander Heusingfeld, Head of Digital Architecture, Vorwerk International

Für mich fing alles 2013 mit dem „Programmer Anarchy“ Vortrag von Fred George an. Konnte es wirklich funktionieren, große Systeme in kleine Module aufzuteilen und die unabhängig zu deployen? Welche Technologien würde ich dafür brauchen? Und welche Skills brauchen wir im Team? Gibt es dann nur ein Team? Und wie kommen wir an unseren Operations-Kollegen vorbei? Mir fällt gerade ein „Warum wollen wir eigentlich Microservices?“ und was passiert, wenn wir das irgendwie in Produktion gebracht haben? Das Netzwerk ist stabil, oder? Muss ich eigentlich mit „Monolith First“ anfangen oder doch Self-Contained Systems? Können Microservices auch angestaubte Modernisierungsprojekte vom BigBang in Richtung Build-Measure-Learn, Analyze-Evaluate-Improve und kontinuierliche Verbesserung bringen? Getreu dem Motto „Hinterher weiß man immer mehr“ möchte ich in diesem Vortrag die Erfahrungen, War Stories und Learnings aus verschiedenen Microservices Projekten, Trainings und Vorträgen der letzten 5 Jahre teilen. Wir werden über Technologien von VMware über AWS bis Kubernetes und von Netflix Hystrix bis Spring Boot sprechen, über implizite Annahmen, generische Fehler, Incidents, und was „you build it, you run it“ mit Augenringen zu tun hat. Ich werde eine Microservice Taxonomie vorstellen, die sich im Laufe der Zeit herausgebildet hat, und von Innovation Tokens berichten, die mir als Architekt helfen, Menschen nicht durch zu viele Neuerungen zu überfordern. Die wichtigsten Aspekte der Architektur, Menschen und Kommunikation, werden wir dabei genauso einbeziehen wie meine Vermutung, dass „it depends“ vielleicht doch _die_ richtige Antwort ist.

Je mehr sich die Arbeit der Menschen vom taktilen in Richtung digitaler Arbeit verschiebt, desto wichtiger wird das Design der Oberflächen für die Interaktion mit dem Digitalen. Wir haben in den vergangenen Jahren in verschiedenen Anwendungsbereichen mit zwei Fragen gerungen: Wie lässt sich Arbeit in ein Interaktionsmodell überführen, bei dem die bisherigen Arbeitsabläufe wiedererkennbar sind, aber hilfreiche neue digitale Features eine echte Verbesserung darstellen? Wie kann der Designprozess für solche Interaktionsmodelle in agile Softwareentwicklung integriert werden, so dass ein gut verwendbares System mit einer auf Dauer flexiblen und anpassbaren Softwarearchitektur entsteht? Wir haben auf verschiedenen Ebenen Antworten gefunden, die wir den Zuhörern in diesem Vortrag gerne vorstellen wollen.

Dr. Carola Lilienthal ist Geschäftsführerin bei der WPS - Workplace Solutions GmbH und analysiert seit 2003 regelmäßig im Auftrag ihrer Kunden die Zukunftsfähigkeit von Softwarearchitekturen und spricht auf Konferenzen über dieses Thema. 2015 hat sie ihre Erfahrungen aus über hundert Analysen von 20 000 und 15 Mio. LOC in dem Buch „Langlebige Softwarearchitekturen“ zusammengefasst.

Resiliente Enterprise-Architektur

Christoph StockTNG

Immer schnellere Entwicklungszyklen, agile Methoden, DevOps und Cloud stellen IT-Systeme vor neue Herausforderungen, eröffnen gleichzeitig allerdings ungeahnte Möglichkeiten. Führende IT-Unternehmen wie Amazon, Netflix oder Google deployen heute einige hundertmal täglich in Produktionsumgebungen. Diese Systeme können flexibel auf kurzzeitig auftretende Lastspitzen, Angriffe und Störfälle reagieren und operieren oberhalb von 99,99% Verfügbarkeit. Dieser Vortrag erläutert, was diese neuartigen resilienten Architekturen von klassischen IT-Landschaften unterscheidet. Welche technischen und organisatorischen Voraussetzungen sind notwendig, damit die IT resilienter wird? Wie tragen Enterprise-Architekten zur Resilienz bei und wie nützt diese am Ende dem Business?

Christoph Stock ist einer der Gründer und Partner von TNG. Er studierte Physik an der Ludwig-Maximilians-Universität München.

Advent of Code ist ein Adventskalender mit kleinen Programmierrätseln für verschiedene Skill-Sets und Skill-Level, die in jeder beliebigen Programmiersprache gelöst werden können. Die Menschen nutzen sie als Geschwindigkeitswettbewerb, als Vorbereitung auf ein Vorstellungsgespräch, für Firmenschulungen, für Kursarbeiten an Universitäten, für Übungsprobleme oder zur gegenseitigen Herausforderung. In diesem Vortrag ermöglicht der Ersteller von Advent of Code einen Blick hinter die Kulissen und zeigt, was erforderlich ist, um eine einmonatige Programmierveranstaltung für über 200.000 Menschen durchzuführen.

Eric Wastl ist der Schöpfer von Advent of Code, einem Adventskalender mit kleinen Programmierrätseln. Er ist ein Software Engineer mit über 15 Jahren Berufserfahrung in den Bereichen Software Engineering, Software-Architektur, Web-Entwicklung, Sicherheit, Systemadministration, Mathematik, Entwicklerausbildung und Mentoring.

The Architect Elevator: Connecting Penthouse and Engine Room (auf Englisch)

Gregor Hohpe, Technischer Direktor des CTO Office, Google

Viele große Unternehmen sind unter Druck geraten: Digitale Disruptoren greifen mit brandneuen Geschäftsmodellen und ohne Altlasten an. Die „FaceBook-Generation“ hat die Erwartungen der Benutzer drastisch erhöht. Und der Zugang zu modernsten Technologien wurde von Cloud-Anbietern demokratisiert. Dies ist eine schwierige Angelegenheit für Unternehmen, die sehr erfolgreich waren und immer noch sind, aber auf traditionellen Technologie- und Organisationsstrukturen aufbauen. Das „Drehen des Tankers“, wie der Wandel oft beschrieben wird, ist in vielen traditionellen Unternehmen zu einem Thema auf Vorstandsebene geworden. Chief IT Architects und CTOs spielen bei einer solchen digitalen Transformation eine Schlüsselrolle. Sie kombinieren die technischen, kommunikativen und organisatorischen Fähigkeiten, um aus einer Aktualisierung des Technologie-Stacks Geschäftswert zu schaffen, hinter Schlagwörter wie "agil" und "DevOps" zu blicken, und eine Technologieplattform zu schaffen, die Qualität garantiert während sie sich schneller bewegt. Um das zu bewerkstelligen, fahren sie mit dem „Architektenlift“ vom Penthouse, in dem die Geschäftsstrategie festgelegt ist, in den Maschinenraum, in dem die entsprechende Technologie implementiert wird. Ich fuhr fünf Jahre lang mit diesem Aufzug in einer großen Finanzdienstleistungsorganisation und berate jetzt große Unternehmen auf ihrer digitalen Reise. Ich sammle Geschichten aus dem Alltag der IT-Transformation und packe sie in unbeschwerte, aber sinnvolle Anekdoten.

Als technischer Direktor im CTO-Büro von Google Cloud maximiert Gregor den Nutzen, den Kunden aus einem Cloud-basierten IT-Modell ziehen, indem er Organisations-, Softwarelieferungs- und IT-Infrastrukturtransformationen kombiniert. Er fährt mit dem „Architektenlift“ vom Maschinenraum zum Penthouse und verbindet Unternehmensstrategie mit technischer Umsetzung, indem er komplexe Themen ansprechend und erreichbar macht, ohne dabei die technische Genauigkeit zu beeinträchtigen. Vor seinem Wiedereinstieg bei Google war Gregor als Chefarchitekt bei der Allianz SE, einer der größten Versicherungsgesellschaften der Welt, tätig. Nachdem er beschleunigte Innovationen und Komplexität sowie Kostensenkungen als Architekturziele etabliert hatte, überwachte er die Konsolidierung des globalen Rechenzentrums und stellte die erste On-Premise-Plattform für Cloud- und Software-Auslieferung bereit. Gregor ist als Co-Autor des wegweisenden Buches "Enterprise Integration Patterns" bekannt, das häufig als Referenzvokabular für asynchrone Messaging-Lösungen gilt. In seinem Buch "37 Things One Architect Knows About IT Transformation ", werden Geschichten aus den Gräben der IT-Transformation erzählt, während seine Artikel in "Best Software Writing" von Joel Spolsky und "97 Things Every Software Architect Should Know " vorgestellt wurden. Er ist aktives Mitglied des IEEE Software Advisory Boards.

Wo ist eigentlich mein Paket?

Dr. Jan Deiterding, IT-Architekt, Deutsche Post

Früher war es einfacher: die Patentante rief auf dem Drehscheibentelefon an und verkündete, dass sie das Paket für die Kinder zur Post getragen hat. Meistens fanden Sie dann ein paar Tage später eine kleine gelbe Karte in Ihrem Briefkasten, auf der stand, dass Sie Ihr Paket am nächsten Werktag ab 10:00 Uhr in der Filiale abholen können. Heute schickt Ihnen der Onlineshop eine Push-Nachricht auf Ihr Smartphone, dass Ihr Paket morgen zwischen 12:30 und 12:37 Uhr geliefert wird. Falls Sie dann nicht daheim sind, können Sie es noch spontan an die nächste Packstation umleiten. Wo sich das Paket gerade befindet, sehen sie online und falls Sie Ihren Kauf zurücksenden wollen, drucken Sie die Paketmarke dafür einfach daheim aus. Bis Anfang 2018 gab es dafür viele verschiedene Systeme bei der DHL. Alle hatten eigene Webseiten, sahen unterschiedlich aus und boten unterschiedliche Services an. Zu allem Überfluss wurden alle Systeme von unterschiedlichen Teams entwickelt, die quer über Deutschland verteilt waren. Unser Ziel war es, für Kunden der DHL einen einzigen Internetauftritt zu realisieren, in dem alle Services in einer einheitlichen Darstellung zusammengeführt werden. Dabei sollte kein zentraler Monolith geschaffen werden, sondern die Autonomie der einzelnen Systeme gewahrt werden. In diesem Vortrag wird das Unterfangen aus Sicht eines Software-Architekten betrachtet. An drei Beispielen wird gezeigt, womit man als Architekt seinen Tag verbringt: Entwickler koordinieren, technische Konzepte entwickeln und sicherstellen, dass die Hardware mitspielt.

Jan Deiterding works as a software architect at DHL. In this function, he is responsible for the expansion and development of the websites and APIs for private and business customers in Germany and Europe. He interacts with donors, departments, developers, and operations and tries to preserve the noble ideals of clean software design. Before that, he wrote many thousands of lines of Java code in IT consulting and a doctoral thesis on self-adaptive industrial robots.

Conways Law Applied – Lessons Learned from Building an Engineering Organisation

Martin Klenk, CTO und Mitgründer, Celonis SE

Seit der Gründung im Jahr 2011 ist die Firma Celonis von einem kleinen Start-up zu einer global verteilten Organisation mit einem weitreichenden Produkt- und Lösungsportfolio gewachsen. Dabei wurde nicht nur das Unternehmen sondern auch das Angebot von klassischer On-Premises-Software zu Cloud Native Software as a Service (SaaS) weiterentwickelt. Martin Klenk spricht über die Herausforderungen auf dieser Reise und den Ansatz, den Celonis für die Transformation hin zu einem skalierbaren, agilen Produktportfolio gewählt hat.

Martin Klenk ist Chief Technology Officer und Mitbegründer von Celonis, dem Marktführer für Process-Mining-Technologien für die Geschäftstransformation. Seit der Gründung im Jahr 2011 leitet er die Entwicklung des Celonis-Produktportfolios sowie die Forschungs- und Entwicklungsabteilung des Unternehmens. Unter Martins Leitung hat Celonis mehrere Auszeichnungen für Produktinnovationen erhalten, darunter den Titel "Best SaaS" bei den Cloud Awards 2018-19 für die Celonis Intelligent Business Cloud. Er ist ein starker Befürworter der Zusammenarbeit von Industrie und akademischer Gemeinschaft und steht hinter mehreren patentierten Erfindungen im Bereich des Process Minings. Martin hat an der Technischen Universität München (TUM) studiert und nimmt auch heute noch regelmäßig an Hochschulveranstaltungen teil und fördert so den akademischen Austausch.

Computer & Spiele

Women in Technology (auf Englisch)

Brenda Romero, Spiel­entwicklerin und -designerin, Schöpferin von Wizardry

Die Geschichte der Frauen in der Informatik ist weitgehend verloren gegangen, ebenso wie die Geschichte der Fabrikarbeiter, die die ersten Autos bauten. Dennoch, Frauen erfanden die Programmierung, waren die ursprünglichen Entwickler der ENIAC, schufen die Assemblersprache sowie den ersten Compiler (ganz zu schweigen von den Begriffen „Compiler“ und „Bug“) und waren für die Entwicklung vieler wichtiger Programmiersprachen von Bedeutung. Also was ist passiert? Es ist ein Drama, welches gleichzeitig eine kulturelle Ausgrabung und ein Freudenfest beinhaltet. In diesem Vortrag arbeitet Brenda Romero diese faszinierende Geschichte auf, untersucht, was passiert ist, und wie die Artefakte dieses Erbes immer noch die Informatik und ihr heutiges Wachstum beeinflussen.

Brenda Romero ist eine BAFTA-preisgekrönte Spieledesignerin, Künstlerin und Fulbright-Preisträgerin, die 1981 in die Videospielbranche einstieg. Als Designerin hat sie an 47 Spielen mitgearbeitet und an vielen wichtigen Titeln mitgewirkt, unter anderem an Wizardry und Jagged Alliance Serien und Titel in den Franchises Ghost Recon, Dungeons & Dragons und Def Jam. Abseits der Computerwelt hat ihre analoge Serie von sechs Spielen „The Mechanic is the Message“ nationale und internationale Anerkennung gefunden, insbesondere „Train and Siochán Leat“, ein Spiel über die Geschichte ihrer Familie, das sich derzeit im National Museum of Play befindet. Vor kurzem, im Jahr 2018, erhielt sie das Lifetime Achievement Award (Bizkaia-Preis) beim Fun and Serious Games Festival in Bilbao, Spanien, sowie den ersten Grace Hopper-Preis der Science Foundation Irland auf der Women in Tech-Konferenz in Dublin, Irland. 2017 erhielt sie den Development Legend Award 2017 bei Develop: Brighton. Im selben Jahr gewann sie einen BAFTA Special Award für ihre Beiträge zur Branche. 2015 gewann sie den begehrten Ambassador’s Award auf dem Game Developers Choice Awards. Im Jahr 2014 erhielt sie eine Fulbright-Förderung, um Irlands Spieleindustrie sowie akademische und staatliche Politik zu untersuchen.

Schach und Mathematik gehören zum geistigen Weltkulturerbe. Seit seiner Entstehung hat das Schachspiel weltumspannenden Einzug in fast alle Kulturen gehalten. Mathematik ist eine über Jahrtausende gewachsene Ressource der Menschheit. Sie steckt – oft unbemerkt – in vielen Dingen unserer Lebenswelt. Die Heizung heizt, der Flieger fliegt nur dann, wenn Mathematik im Spiel ist. Schach und Mathematik sind beides Quellen nachhaltig spürbarer Schönheit. Hier wie dort steckt die Ästhetik in der Ausstrahlung geistreich verknüpfter Ideen. Der Vortrag zeigt Highlights dieser beiden Ideenwelten sowie der vielfältigen Beziehungen zwischen Schach und Mathematik. Allgemeinverständlichkeit wird angestrebt.

Christian Hesse, Jahrgang 1960, wurde 1966 im sauerländischen 1500-Seelen-Ort Neu-Listernohl eingeschult und promovierte 21 Jahre später an der Harvard Universität (USA). Von 1987-91 lehrte er als Assistenz-Professor an der Universität von Kalifornien in Berkeley. 1991 wurde er auf eine Professur für Mathematik an die Universität Stuttgart berufen. Zu seinen Leidenschaften gehört das Schachspiel. Darüber hat er zwei Bücher geschrieben, unter anderem den Essayband Expeditionen in die Schachwelt. Zusammen mit den Klitschko-Brüdern, mit Fußballtrainer Felix Magath und Ex-Weltmeister Anatoli Karpov wurde er zum Internationalen Botschafter der Schacholympiade 2008 ernannt. Christian Hesse ist verheiratet und hat eine 18-jährige Tochter und einen 14-jährigen Sohn. Mit seiner Familie lebt er in Mannheim.

The Programming Principles of Id Software (auf Englisch)

John Romero, Spielentwickler und Mitgründer, id Software

Die frühen Tage von Id Software: Als Mitbegründer von id Software haben John Romero und John Carmack den Code hinter den wichtigsten Titeln des Unternehmens entwickelt. Die Prinzipien, die sie durch Erfahrung in den ersten Tagen von id Software definiert haben, bauen aufeinander auf, um eine einzigartige Methodik und eine ständig lieferbare Codebasis zu schaffen. In diesem Vortrag erörtert John Romero die Anfänge von id Software, die Programmierprinzipien sowie die Ereignisse und Spiele, die zu ihrer Erstellung führten.

John Romero ist eine preisgekrönte Ikone der Spieleentwicklung, deren Arbeit über 130 Spiele umfasst, von denen 108 kommerziell veröffentlicht wurden. Romero ist der "Vater der Ego-Shooter", der das Design leitete und zur Programmierung und Audiodesign der legendären und genreprägenden Spiele DOOM, Quake, Heretic und Hexen beigetragen hat. Romero war auch einer der ersten Unterstützer von eSports und ein ehrgeiziger DOOM- und Quake-Spieler. Bis heute hat Romero acht erfolgreiche Spielefirmen gegründet, darunter id Software. Er gilt als einer der weltbesten Spieledesigner, und seine Produkte haben weit über 100 Auszeichnungen erhalten. Romero gewann kürzlich einen Lifetime Achievement Award beim Fun & Serious Games Festival in Bilbao und den Legend Award bei Develop: Brighton. Als einer der ersten Indie-Entwickler arbeitete Romero 1979 im Mainframe-Bereich, bevor er 1981 zu Apple II wechselte. Er ist ein vollständig autodidaktischer Programmierer, Designer und Künstler, der seine Inspiration von den frühen Apple II-Programmierern zog.

Grundlagenforschung

Eines der größten gesellschaftlichen Probleme der heutigen Zeit ist der ständige wachsende Energiebedarf, schwindende fossile Energieträger und dem Drang nach sauberer und nachhaltiger Stromerzeugung. Unter den gängigsten erneuerbaren Energietechnologien besitzt solare Stromerzeugung bedingt durch die immense Energieproduktion der Sonne das vielleicht größte Potential. Bisher sind Silizium-basierte Solarzellen allgegenwärtig, allerdings reichen sie bei weitem nicht aus um den gesamten Energiebedarf der Erde abzudecken. Bei der Suche nach neuen Materialien um Silizium-Solarzellen zu verbessern oder gänzlich zu ersetzen, tauchten im Jahr 2011 zum ersten Mal die so genannten Halidperowskite auf. Bedingt durch ihre extrem vorteilhaften optischen Eigenschaften, sind Perowskit-basierte Solarzellen in der kurzen Zeit seitdem inzwischen soweit verbessert worden, dass Spitzenwerte der Umwandlungseffizienz schon in die Nähe der Silizium-basierten Solarzellen heranreichen.

Alexander Urban studierte Physik an der Universität Karlsruhe (Deutschland). Während seines Studiums verbrachte er ein Jahr an der Heriot Watt University (UK), wo er einen Master in Physik abschloss. Ab 2007 war er am Lehrstuhl für Photonik und Optoelektronik von Jochen Feldmann an der Ludwig-Maximilians-Universität (LMU) in München (Deutschland) tätig, wo er an der optothermischen Manipulation von plasmonischen Nanopartikeln arbeitete und seine Promotion im Jahr 2010 abgeschlossen hat. In der Gruppe von Naomi J. Halas am Laboratorium für Nanophotonik der Rice University (Houston, TX, USA) erweiterte er ab 2011 seine Expertise in den Bereichen Plasmonik und Nanophotonik. 2014 kehrte er an die LMU zurück und wurde zusammen mit Jochen Feldmann Junior-Gruppenleiter. Er betreut den Bereich der optischen Spektroskopie. Seinen Forschungsschwerpunt bilden die Hybrid-Nanomaterialien wie Halidperowskite -Nanokristalle und Kohlenstoffpunkte. 2017 erhielt Alexander Urban einen der renommierten Starting Grants des European Research Councils und wurde kurz darauf als ordentlicher Professor für Physik (W2) an der LMU berufen. Hier leitet er nun eine eigene Forschungsgruppe, die sich mit Nanospektroskopie in neuartigen Hybridnanomaterialien beschäftigt.

Reflections on Missing Productivity Growth in an Era of Digital Transformation (auf Englisch)

Christina Timiliotis, Economist, OECD

Die digitale Transformation bietet die Chance, das Produktivitätswachstum zu verbessern, indem Innovationen ermöglicht und die Kosten verschiedener Geschäftsprozesse reduziert werden. Doch trotz des schnellen Fortschritts digitaler Technologien hat sich das gesamte Produktivitätswachstum in den letzten etwa zehn Jahren verlangsamt und so die Frage aufgeworfen, wie digitale Technologien die Produktivität ankurbeln können. Heute, wie in den achtziger Jahren, als Nobelpreisträger Robert Solow scherzte: "Überall sehen wir Computer, nur nicht in der Produktivitätsstatistik", ist wieder einmal ein Paradoxon des schnellen technologischen Wandels und des langsamen Produktivitätswachstums zu beobachten. Die Arbeit der OECD zeigt, dass es Hoffnung für die Zukunft gibt. Die digitale Transformation wirkt sich zwar noch nicht auf die aggregierten Produktivitätsdaten aus, hat allerdings allmählich einen Effekt auf die Produktivität in einzelnen Unternehmen - und zunehmend auch in bestimmten Branchen. Im Zuge der digitalen Transformation sollten sich weitere und größere Auswirkungen ergeben, insbesondere im Aufstreben der künstlichen Intelligenz, und indem sich digitale Technologien, Geschäftsmodelle und -praktiken auf eine größere Anzahl von Unternehmen und Branchen ausbreiten. Die politischen Entscheidungsträger können dazu beitragen, dass es zu diesen positiven Folgen kommt, indem sie unterstützende politische Maßnahmen ergreifen, insbesondere für weniger produktive Unternehmen. Dies würde sich doppelt auf Produktivitätsergebnisse sowie Gleichstellung auszahlen.

Christina Timiliotis ist Ökonomin in der Abteilung für Ökonomie der OECD. Ihre Forschung konzentriert sich auf Produktivität und dabei insbesondere auf den Zusammenhang zwischen Produktivität und Digitalisierung, sie arbeitet jedoch auch für das Luxemburger Country Desk. Zuvor arbeitete Christina in der Direktion für Handel und Landwirtschaft zu Handels- und Umweltthemen, speziell zu Subventionen für fossile Brennstoffe und zum Handel mit Umweltgütern und -dienstleistungen. Christina hat einen M.Sc. in empirischer und theoretischer Ökonomie der Paris School of Economics.

Hardware & Reality Hacking

Die Beschleunigung des neuen Raumzeitalters durch modernste Antriebssysteme

Daniel Metzler, Mitgründer und CEO, Isar Aerospace Technologies 

Weltraumanwendungen sind ein entscheidendes Element in der heutigen, digitalen Wirtschaft. Sie ermöglichen globale Kommunikationsnetzwerke, die Überwachung der Logistik oder die Bereitstellung von Daten für die Geschäftsanalyse. Mit dem Markteintritt kommerziell agierender Unternehmen sieht die Zukunft auf globaler Ebene gut aus. Wie können wir Weltraumdaten nutzen und wer übernimmt die Führung im Weltraumwettkampf 2.0?

Daniel Metzler ist Mitbegründer und CEO der Isar Aerospace, ein Münchner Unternehmen, das Orbital-Trägerraketen entwickelt, um die Barrieren für den kommerziellen Weltraumzugang zu senken. Zuvor leitete er ein Team von 40 Studierenden der Raketenforschungsgruppe WARR, das Höhenforschungsraketen entwickelte. Neben seinem Studium in Maschinenbau und Luft- und Raumfahrttechnik entwickelte er mehrere Webservices.

BepiColombo ist eine Merkur-Mission der europäischen Raumfahrtagentur ESA, die in Zusammenarbeit mit der japanischen Raumfahrtagentur JAXA entwickelt wurde. Die Mission bezieht sich auf zwei Raumsonden, die am 20. Oktober 2018 gemeinsam als ein Komposit-Raumfahrzeug gestartet wurden und ein Modul mit elektrischem Antrieb zur Unterstützung der 7-jährigen Reise beinhaltet. Während dieser Reise wird der Flugkörper mehrere Swingby-Manöver (eines an der Erde, zwei an der Venus und sechs am Merkur) vollführen. Das Raumfahrzeug wird vom European Space Operations Center (ESOC) in Darmstadt (Deutschland) betrieben. In der Präsentation werden die wissenschaftlichen Ziele und spezifischen Herausforderungen der Mission vorgestellt und über die wichtigsten Ereignisse seit dem Start berichtet.

Elsa Montagnon kommt aus Frankreich. Bevor sie 1999 der Europäische Raumfahrtagentur beitrat, studierte sie Luft- und Raumfahrttechnik in Frankreich und Deutschland. Seitdem hat sie die ESA-Missionen Rosetta und Philae unterstützt – erstere beim Start im Jahr 2004 und letztere bei der Landung im Jahr 2014. Seit 2007 ist sie Spacecraft Operations-Managerin von BepiColombo, der Merkur-Mission von ESA und JAXA.

Hype Meets Reality Additive Fertigung in der Serienproduktion

Dr. Joachim Zettler, CEO, Airbus APWORKS

„Im Fokus steht der Mehrwert für die Produkte und den Kunden.“ – Produktbeispiele, bei denen die additive Fertigung verwendet wurde, haben verschiedene Vorteile. Gewichtseinsparungen von bis zu 50% in der Luftfahrtindustrie sparen Betriebskosten und Kerosin. Homogene Wärmeübertragung in Wärmetauschern erhöht die Effizienz und Leistung. Die Verringerung des Volumens um 30% bei Werkzeugen aufgrund der funktionalen Integration verkürzt die Lieferkette. Konformes Kühlen oder Heizen ermöglicht außerdem eine höhere Effizienz der Werkzeuge und verkürzt die Produktionszeit. Wirtschaftlich wertvolle Serienprodukte werden nur durch den perfekt aufeinander abgestimmten Dreiklang aus Design, Material und Produktion, wie ihn APWORKS anbietet, möglich. Design bedeutet in diesem Zusammenhang, Produkte speziell für die additive Fertigung zu entwickeln. Auf diese Weise kann man die Bedingungen für die nachfolgende Schritte ab Start des Konstruktionsprozesses berücksichtigen. Durch die Kombination der Vorteile des metallischen 3D-Drucks mit neuen Materialien können die Möglichkeiten für moderne Komponenten erheblich erweitert werden. Scalmalloy® ist ein solches Best-Practice-Beispiel, da es das geringe Gewicht von Aluminium mit der spezifischen Festigkeit von Titan kombiniert. Die Kombination der Designfreiheit der additiven Fertigung mit einem Hochleistungswerkstoff ermöglicht die Ausführung hochkomplexer Geometrien. Weiterhin müssen die Anlagen für diese Art der Produktion angepasst und aufgerüstet werden.

Joachim Zettler ist Geschäftsführer von APWORKS, einer 100% -igen Tochter von Premium AEROTEC die sich auf die Additive Fertigung spezialisiert hat. Seit der Gründung von APWORKS im Jahr 2013 ist er Geschäftsführer und etablierte APWORKS mit seinen Dienstleistungen in verschiedenen Branchen wie der Automobilindustrie, Robotik, Maschinenbau, Medizintechnik und Luft- und Raumfahrt. Joachim Zettler war von 2005-2013 bei Airbus als Projektmanager und technischer Berater tätig. Er verfügt über langjährige Erfahrung in der Produktionstechnologie für kleine und große Luftfahrt- und Automobilkomponenten. Während seiner Zeit bei Airbus arbeitete er hauptsächlich für das Zivilflugzeuggeschäft von Airbus in Frankreich an der Optimierung der Fertigungsprozesse und unterstützte die Einführung schlanker Fertigungsmethoden. Er hat an der Technischen Universität München seinen Abschluss zum Diplom-Ingenieur gemacht und sich dort auf Produktionsmethoden spezialisiert.

A Real-Life Mission Impossible (auf Englisch)

Josh Dean, Journalist und Buchautor

1968 ist ein sowjetisches Atomraketen-U-Boot im abgelegenen Pazifik verschwunden, und die Russen erklärten, es sei verschollen. Unter dem Schleier der Geheimhaltung fanden die Amerikaner das Wrack und in den nächsten 6 Jahren entwarf und führte die CIA die vielleicht größte und komplizierteste verdeckte Spionagemission der Geschichte aus. Diese Mission mit dem Codenamen Project Azorian war mehr als gewagt. Ingenieure machten sich daran, ein Schiff und ein System zu bauen, das ein zwei Millionen Pfund schweres Objekt vom Meeresboden ziehen konnte, das sich 16.500 Fuß unter der Oberfläche befand, ohne dass jemand das wahre Ziel kannte. Wie ist das möglich? Weil die CIA die perfekte Coverstory hatte. Sie erzählten der Welt, dass das Schiff ein Tiefseebergbauschiff eines sehr exzentrischen Besitzers sei: Howard Hughes.

Josh Dean, Journalist und Autor, schreibt regelmäßig über eine Vielzahl von Themen für viele US-Magazine, darunter Popular Science, GQ und Bloomberg Businessweek. Sein letztes Buch „The Taking of K-129“ erzählt die unglaubliche Geschichte von Project Azorian, der größten verdeckten Operation in der CIA-Geschichte und wohl die größte Leistung, die jemals in der Schiffsingenieurkunst zu verzeichnen war. Sein nächstes Buch „The Impossible Factory“ wird die Geschichte der Luftfahrtlegende Kelly Johnson und seiner bemerkenswerten Lockheed Skunk Works, dem Geburtsort SR-71 Blackbird, erzählen. Er ist außerdem der Moderator und Mitgestalter des Podcasts „The Clearing“ zu wahren Verbrechen, der diesen Sommer erscheinen wird.

Disney Research wurde 2008 als informelles Netzwerk von Forschungslaboren gegründet, welches eng mit akademischen Institutionen wie der Eidgenössischen Technischen Hochschule Zürich (ETHZ) und der Carnegie Mellon University in Pittsburgh, Pennsylvania, zusammenarbeitet. Die Mission ist es, die Grenzen der Technologie in Bereichen zu überschreiten, die für Disneys kreatives Entertainmentgeschäft wichtig sind. Disney Research entwickelt Innovationen für Parks, Filme, Animationen, Fernsehen, Spiele und Konsumartikel. Zu den Forschungsfeldern gehören Video- und Animationstechnologien, Nachbearbeitung und Spezialeffekte, digitale Fertigung, Robotik und vieles mehr. In diesen Vorträgen wollen wir einen Überblick über Disney Research geben, gespickt mit einigen Beispielen unserer neusten und größten Erfindungen. Wir werden uns auf die Zusammenarbeit zwischen der ETHZ und der Walt Disney Company fokussieren und dabei die Synergien aus diesem Programm darstellen. Die zwei Präsentationen werden sowohl die Perspektive eines Unternehmens als auch die akademische Sichtweise beleuchten. Anschließend freuen wir uns auf ein spannendes Diskussionspanel.

Markus Gross, Direktor von Disney Research Zürich, Professor der Computerwissenschaften, ETH Zürich, Scott Trowbridge, Vizepräsident Research and Developement, The Walt Disney Company

Saving Carbon Dioxide by Creating an Affordable Digital Twin of a Wind Turbine for Data Driven Optimization (auf Englisch)

Robert Erdmann, CDO, fos4x

Windturbinen wiegen annähernd 1.000 Tonnen und stehen für moderne Maschinenbaukunst. Allerdings sehen sich viele Betreiber von Windanlagen mit mehreren Einschränkungen konfrontiert; sogar direkt nach Betriebsstart liefern die Parks oft bedeutend weniger Energie als erwartet. Die operative Instandhaltung ist weiterhin in regelmäßigen Abständen notwendig. Gegen Ende des zertifizierten Lebenszyklus muss die Wirtschaflichkeit des laufenden Betriebs und die von Alternativen quantifiziert werden, doch an diese Daten zu kommen, ist schwierig. Dies ist ein wiederkehrendes Muster in der Windindustire: Die (Nicht-)Verfügbarkeit sowie die fragwürdige Qualität und Schärfe der vorhandenen Daten. Der Vortrag wird Ihnen eine Handvoll Fallstudien nahe bringen, die zeigen, wie faseroptische Sensoren in die Rotorblätter integriert werden, um Hochfrequenzdaten (in diesem Kontext 40Hz) zur liefern, aus denen wir verschiedene physikalische Parameter berechnen können (Windrichtung, Geschwindigkeit, Turbulenzen etc.), und gleichzeitig auch den Zustand des Rotorblatts ermitteln können (Vereisung, Sprung, Blitzeinschlag etc.). Wir tun all dies, um die jährliche Energieproduktion zu erhöhen, Betriebskosten zu senken und die Lebensspanne zu verlängern. Und ja, die Effekte sind hochgradig messbar. Wir arbeiten seit 2012 daran und die Technologie ist durch mehr als 100 Patente geschützt. Mit einem Blick in die Zukunft sind wir überzeugt, dass die Anlagenbesitzer die datengestützte Optimierung nutzen werden und dass die Turbinen selbst online sein und interagieren werden. Anlagen, welche jetzt nicht ausgelastet sind, werden dann verstanden sein und wir tun unseren Anteil daran, dies noch schneller Realität werden zu lassen.

Robert Erdmann leitet das digitale Geschäft bei fos4X, welches die IIoT Infrastruktur, Softwareentwicklung und Big Data Analyse umfasst. Mit seinem Team entwickelt er Anwendungen für modellbasierte Analyse und maschinelles Lernen, für welche die Daten der ebenso innovativen Sensortechnologie in den Rotorblättern wirksam eingesetzt werden. Bevor er zu fos4x kam, baute Robert verschiedene digitale Geschäfte beim Telekommunikationsriesen Telefónica auf. Zuletzt gründete er die Einheit Advanced Data Analytics innerhalb von Telefónica NEXT, einer strategischen Ausgründung für Mobilitätsdaten. Er begann seine Laufbahn beim Halbleiterhersteller Texas Instruments, besitzt Masterabschlüsse in Elektrotechnik (Stanford University) und Business Administration (UCLA Anderson School of Management) sowie ein stark internationales Profil mit Erfahrung in den USA, China, Skandinavien und Frankreich.

Blobby VR - Wie programmiere ich ein Multiplayer-Volleyball-Spiel in VR?

Thomas Endres und Christoph BergemannTNG

Wie können wir ein Mehrspieler-Volleyballspiel in VR entwickeln? Ist das überhaupt möglich? Welche Stolperfallen lauern auf dem Weg dorthin? Und kann das Spaß machen? Diese Fragen haben wir uns vor einem Jahr gestellt. Die Antworten können wir Ihnen heute geben. In diesem Vortrag möchten wir von den Herausforderungen berichten, die wir auf dem Weg zu einem fertigen Spiel bewältigen mussten. Dank des Aufkommens und des einfachen Zugangs zu professionellen Spiele-Engines wie Unity 3D, der Unreal- oder der Cry-Engine ist die Spieleprogrammierung in den vergangenen Jahren deutlich einfacher geworden. Dennoch bleiben die spezifischen Herausforderungen bei der individuellen Implementierung bestehen. Insbesondere werden wir auf die Schwierigkeiten im Umgang mit der Netzwerklatenz und der Wechselwirkung mit der Physikengine eingehen. Außerdem zeigen wir, wie wir iterativ an der Spiel- und Ballmechanik gearbeitet haben, um ein nicht nur realistisch wirkendes, sonder auch ein vor allem unterhaltsames Spielverhalten zu erzielen.

Christoph Bergemann ist Consultant bei TNG Technology Consulting GmbH. Nach seinem Mathematikstudium an der LMU München war er als wissenschaftlicher Mitarbeiter am Deutschen Zentrum für Luft- und Raumfahrt im Bereich Fernerkundung der Atmosphäre tätig. Neben seiner Kundentätigkeit ist er im TNG-Hardware-Hacking-Team aktiv und entwickelt an verschiedenen Prototypen mit.

Thomas Endres arbeitet in der Rolle eines Associate Partners als IT-Consultant für TNG Technology Consulting in München. Neben seiner "normalen" Tätigkeit für die Firma und die Kundenprojekte entwickelt er zusammen mit dem TNG-Hardware-Hacking-Team veschiedene Prototypen - darunter ein Telepräsenz-Robotik-System, mit dem man die Realität aus den Augen eines Roboters erleben kann, oder aber eine Augmented-Reality-KI, die die Welt aus der Perspektive eines Künstlers zeigt. Er arbeitet an Anwendungen im Bereich der AR/VR, KI sowie der Gestensteuerung, um damit beispielsweise Quadrokopter autonom fliegen zu lassen oder berührungslos zu steuern. Darüber hinaus ist er in verschiedenen Open-Source-Projekten in Java, C# und allen Spielarten von JavaScript involviert. Thomas ist studierter Informatiker (TU München) und leidenschaftlicher Softwareentwickler. Als Intel Software Innovator und Black Belt präsentiert er weltweit neue Technologien wie KI, AR/VR und Robotik. Dafür erhielt er unter anderem einen JavaOne Rockstar-Award.

Quantencomputer

D-Wave's Approach to Quantum Computing (auf Englisch)

Dr. Colin P. Williams, Vice President of Strategy & Corporate Development, D-Wave Systems, Inc.

Der Quantencomputer verspricht, die Computertechnologie ebenso grundlegend zu revolutionieren wie das Flugzeug den Transport revolutionierte. Nach jahrzehntelanger Inkubation erscheinen endlich Quantencomputer der frühen Generation, die es den Menschen ermöglichen, ernsthaft mit dem Experimentieren zu beginnen. In diesem Vortrag werde ich den Ansatz von D-Wave für das Quanten Computing beschreiben, seine Vor- und Nachteile in Bezug auf konkurrierende Systeme erläutern und die Gründe für unsere Entwurfsentscheidungen erläutern. Darüber hinaus werde ich Beispiele nennen, wie die systemeigenen Optimierungs- und Samplingfähigkeiten unseres Quantenprozessors genutzt werden können, um Probleme in einer Vielzahl von Bereichen zu lösen, darunter Gesundheitswesen, Physik, Finanzen, Simulation, künstliche Intelligenz und maschinelles Lernen.

Colin P. Williams ist Vice President Strategy & Corporate Development bei D-Wave Systems Inc. und berichtet direkt an den CEO. Er hat über 20 Jahre im Bereich des Quanten Computing gearbeitet und Algorithmen und Anwendungen sowohl für das Gate-Modell als auch für das Annealing-Modell entwickelt und patentiert. Bevor er zu D-Wave kam, war Colin Senior Research Scientist (SRS) und Programmmanager für Advanced Computing Paradigms am Jet Propulsion Laboratory der NASA am California Institute of Technology der NASA. Zuvor entwickelte und unterrichtete er als Associate-Professor für Computerwissenschaften an der Stanford University die ersten Kurse Standfords in den Bereichen Quantencomputer & Quantenkommunikation sowie computergestützte Mathematik. Colin erwarb seinen Ph.D. in künstlicher Intelligenz an der University of Edinburgh im Jahr 1989 und schrieb "Explorations in Quantum Computing", eines der ersten Lehrbücher auf diesem Gebiet.

Quantum-classical Hybrid Algorithms for Protein Folding and Docking (auf Englisch)

Mark Fingerhuth, Mitgründer und Head of R&D, ProteinQure

Ziel der computergestützten Wirkstoffforschung ist es, Algorithmen für das rationale Design und die Optimierung therapeutischer Moleküle zu entwickeln. Bei der Untersuchung der Dynamik von Wirkstoffzielen und Protein-Therapeutika muss die dreidimensionale Struktur aus der Aminosäuresequenz vorhergesagt werden können - weithin bekannt als Proteinfaltungsproblem. Rechnergestützte Docking-Algorithmen werden verwendet, um verschiedene Wirkstoffverbindungen nach ihrer Wechselwirkungsstärke mit dem Wirkstoffziel zu ordnen. Die meisten Ansätze zur Proteinfaltung und zum Docking sind mit klassischen Supercomputern rechentechnisch unmöglich umsetzbar. In diesem Vortrag werde ich ProteinQures Portfolio veröffentlichter Quantenalgorithmen vorstellen. Dies beinhaltet zwei hybride Ansätze, um grobkörnige Gitterproteine ​​auf verschiedenen Arten von Quantenhardware zu falten. Als Teil davon werde ich zeigen, wie wir das größte Protein auf einem D-Wave-Quantenprozessor gefaltet haben. Als nächstes werde ich beschreiben, wie Quantencomputer herkömmliche Softwarepakete verbessern können, seit wir eine quanten-verbesserte Version von Rosetta entwickelt haben, der weltweit beliebtesten Protein-Engineering-Software. Schließlich werde ich einen quanten-klassischen hybriden Graphenalgorithmus zur Vorhersage von molekularen Docking-Konfigurationen vorstellen, der für photonische Quantenchips optimiert ist, die bei Raumtemperatur betrieben werden können.

Mark hat theoretische Physik studiert und ist Unternehmer aus Leidenschaft. Ende 2017 war er Mitgründer des kanadischen Biotech-Startups ProteinQure, das darauf abzielt, das computergestützte Design von Protein-Therapeutika zu revolutionieren. ProteinQure ist eines der wenigen Unternehmen weltweit, das als Pionier beim Einsatz von Quantencomputertechnologie in den Biowissenschaften gilt. Akademisch veröffentlichte er den ersten Proof-of-Principle-Ansatz eines Quanten-Machine-Learning-Algorithmus für supraleitende Quantenhardware und verfasste mehrere Veröffentlichungen über Quantenspeicher, Quantensoftware und klassischen Quanten-Hybrid-Algorithmen. Zusammen mit Peter Wittek und Tomas Babej gründete er kürzlich die Quantum Open Source Foundation, die die Entwicklung freier und offener Quantensoftware durch Konferenzen und Hackathons unterstützt und fördert. In seiner Freizeit surft Mark auf den Great Lakes, produziert elektronische Musik und baut eine digitale Festung, die seine Privatsphäre und Sicherheit gewährleistet.

Werkzeuge und Methoden

Muss ich wirklich schon wieder alles testen? Test-Impact-Analyse in Forschung und Praxis

Dr. Elmar Juergens, Mitgründer und Berater für Software Qualität, CQSE GmbH, und Alexander Kaserbacher, TNG

Große Test-Suites haben oft eine lange Laufzeit. Daher werden sie in der Praxis oft gar nicht als Teil der Continuous Integration (CI) ausgeführt, sondern erst in späteren Testphasen. Leider bleiben dadurch viele Fehler während der CI unerkannt und werden erst spät gefunden, was hohen Aufwand verursacht. Test-Impact-Analyse erlaubt es, nur die Tests auszuführen, die von den Code-Änderungen seit dem letzten Testlauf betroffen sind und damit am wahrscheinlichsten neue Fehler finden. In unseren empirischen Studien konnten wir so in 2% der Testausführungszeit 90% der Fehler finden. Der Vortrag stellt Grundlagen, Forschungsergebnisse und empirische Studien zu Test-Impact-Analyse vor. Daneben berichten wir von unseren Erfahrungen in der eigenen Entwicklung, in Open-Source Projekten und bei Kunden.

Dr. Elmar Juergens hat über statische Codeanalyse promoviert und für seine Doktorarbeit den Software-Engineering-Preis der Ernst Denert-Stiftung erhalten. Er ist Mitgründer der CQSE GmbH und begleitet seit zehn Jahren Teams bei der Verbesserung ihrer Qualitätssicherungs- und Testprozesse. Juergens spricht regelmäßig auf nationalen und internationalen Konferenzen und wurde 2015 zum Junior Fellow der Gesellschaft für Informatik ernannt.

Alexander Kaserbacher ist Software Consultant bei TNG Technology Consulting, wo er aktuell im Bereich Solution-Architektur für einen Kunden aus der Telekommunikationsbranche tätig ist. Bereits während seines Informatik-Studiums beschäftigte er sich intensiv mit Software-Engineering und -Qualität. Seine Leidenschaft für Technologie umfasst auch die verschiedensten Auswirkungen von Software auf Unternehmen und gesellschaftliche Faktoren.

The Nerdy Salesman: Why Technical People must Start Shaping their Businesses and are Best Equipped to do so (auf Englisch)

Johannes Lechner, Mitgründer und Head of Product, Payworks GmbH

Die meisten sind sich darüber einig, wie wichtig eine interdisziplinäre und unternehmerische Einstellung für den Erfolg in der IT ist. Die traurige Realität in vielen Unternehmen und Bildungsprogrammen ist jedoch immer noch eine tiefe Kluft zwischen „geschäftlichen“ und „technischen“ Leute und Sachverhalte. In meinem Vortrag wird erläutert, warum sich dies ändern muss und warum ich wahrlich der Meinung bin, dass Techies bestens geeignet sind, ihren Unternehmen einen enormen Mehrwert zu bieten. Ich werde praktische Ratschläge geben, wie Studenten, Young Professionals und ihre Manager dorthin gelangen können.

Johannes Lechner, Mitgründer und Produktleiter Payworks GmbH.
Johannes Lechner ist bei Payworks, dem Münchner Zahlungstechnologieanbieter, für alle produktbezogenen Themen verantwortlich. Er studierte Informatik und Technologiemanagement. Währenddessen verfolgte er verschiedene unternehmerische Projekte. In seiner Freizeit ist er ein leidenschaftlicher Fotograf und aufstrebender freiwilliger Feuerwehrmann.

No Docker Required: Tools to Build Container Images

Dr. Martin Höfling und Patrick HarböckTNG

Docker ist zwar für die Erstellung und Ausführung von Containern immer noch sehr beliebt, jedoch gibt es Sicherheits- und Skalierungsdefizite für Produktionssysteme und Build-Pipelines. In letzter Zeit sind Alternativen entstanden um Container-Images ohne Docker zu erstellen. Diese adressieren übliche Probleme: Bauen ohne erhöhte Berechtigungen, reproduzierbare Resultate, Caching von Zwischenergebnissen und Skalierung von CI/CD in größeren Unternehmen. Wir werden zunächst den grundlegenden Aufbau eines Container-Images vorstellen und anschließend Build-Prozesse mit ausgewählten Tools vergleichen. Des Weiteren werden wir deren Anwendung demonstrieren und die jeweiligen Stärken und Schwächen diskutieren. Zuletzt geben wir euch Tipps zur Wahl eines passenden Tools - welches nicht immer Docker sein muss.

Martin ist Principal Consultant bei TNG Technology Consulting und konzentriert sich auf Cloud-Technologien und die Architektur verteilter Systeme. Derzeit leitet er ein Team zur Entwicklung von Web-Applikationen basierend auf Cloud-Native Technologien für eine größere Organisation.

Patrick ist Senior Consultant bei TNG Technology Consulting. Als Site Reliability Engineer baut und betreibt er verteilte Web-Systeme mit Kubernetes auf AWS für ein Startup. Falls möglich, benutzt und unterstützt er Open-Source Software and arbeitet gerne mit Python, TypeScript, Go und modernen Web-Technologien.

Auch wenn es aus heutiger Perspektive schwer vorstellbar scheint, lief Software früher primär offline auf lokalen Computern auf der lokalen Festplatte. Durch die Migration in die Cloud wurden großartige Funktionen wie Echtzeit-Zusammenarbeit in Google Docs ermöglicht. Allerdings haben wir jedoch auch die Kontrolle über unsere eigenen Daten verloren und sind nun von weit entfernten Servern abhängig, um auf die von uns erstellten Daten zugreifen zu können. Die JavaScript-Bibliothek Automerge zum Erstellen kollaborativer Echtzeitanwendungen möchte das Beste aus beiden Welten vereinen. Mit Automerge erstellte Apps arbeiten auch offline, speichern Daten lokal und synchronisieren diese mit den anderen Mitarbeitern, sobald ein Netzwerk verfügbar ist. Obwohl Automerge mit Servern verwendet werden kann, ist dies nicht zwingend notwendig, da die Synchronisierung auch Peer-to-Peer oder über ein beliebiges Netzwerk funktioniert. In diesem Vortrag soll gezeigt werden, wie Automerge mit verschiedenen Benutzern umgeht, die gemeinsam genutzte Daten kollaborativ, aber unabhängig voneinander ändern (Hinweis: durch automatisches Zusammenführen der Änderungen!), wie die Anwendung in stark verteilten Umgebungen Konsistenz erzielt und welche Funktionen für die Zukunft geplant sind.

Martin Kleppmann forscht im Gebiet verteilter Systeme an der Universität Cambridge und ist Autor des renommierten O’Reilly-Buches „Designing Data-Intensive Applications“. Zuvor war er Softwareentwickler und Unternehmer, hat zwei Start-ups mitgegründet und bei LinkedIn an großen Dateninfrastrukturen gearbeitet.

Site Reliability Engineering – DevOps on Steroids

Maximilian BodeTNG

Alle reden von DevOps – aber wie macht man es? Google hat seine internen Best Practices unter dem Namen Site Reliability Engineering veröffentlicht. Wir haben uns intensiv damit auseinander gesetzt. In diesem Vortrag stellen wir die Schlüsselkonzepte vor und zeigen Anwendungen aus unserem Projektalltag. Wer schon immer wissen wollte, was sich hinter den Begriffen Infrastructure as Code, Error Budgets oder Service Level Objectives verbirgt, ist hier also genau richtig. Auch Technologie soll dabei nicht zu kurz kommen – der Zuhörer erfährt, welche Tools und Frameworks bei einem zuverlässigen und sicheren Cloud-Betrieb unterstützend wirken können. Eine zentrale Rolle spielen dabei Cloud-native-Technologien wie Kubernetes und Prometheus genauso wie CI/CD-Tools, zum Beispiel GitLab oder Terraform.

Maximilian Bode ist Senior Consultant bei TNG und spezialisiert auf Big Data Engineering. Aktuell unterstützt er einen großen Kunden aus der Telekommunikationsbranche bei Konzipierung, Entwicklung und Betrieb einer Anonymisierungsplattform für Bewegungsdaten aus dem Mobilfunknetz. Bis zuletzt leitete er dort das SRE-Team, welches die Migration der Plattform in die Cloud begleitet. Max mag gut funktionierende Teams, schlanke Prozesse und Open-Source-Software wie Apache Flink oder Kubernetes.

Ein recht neuer Bug wurde in einer bekannten Virtualisierungssoftware gefunden, wofür es jedoch noch keinen, zumindest öffentlich, funktionierenden Exploit gab. Anhand dieses Beispiels soll dargestellt werden, wie ein kleiner Bug in einer Software, die gesamte Sicherheitsvorkehrungen einer Anwendung und des darunterliegenden Betriebssystems außer Kraft setzten kann und wie ein realer Exploit entwickelt und implementiert wird. Außerdem soll dadurch die Annahme "Virtualisierung ist gleich Sandbox" disputiert werden.

Aktuell ist Tobias Madl Research Associate und Ph.D. Student am Fraunhofer Institut für Angewandte und Integrierte Sicherheit mit Fokus auf Product Protection & Industrial Security. Zuvor arbeitete er als IT-Sicherheitsanalyst bei der Landeshauptstadt München im Bereich externe Netze & DMZ. Nebenbei betreibt er ein Gewerbe, welches praxisbezogene Security Schulungen für Entwickler anbietet und hat einen M.Sc. in Applied Research of Engineering Sciences mit Schwerpunkt auf Automotive Security. Zuletzt wurde Tobias 2018 mit dem deutschen Team Europameister bei der European Cyber Security Challenge in London, UK.

Adding an Edge to Mobile and IoT (auf Englisch)

Dr. Vivien Dollinger, CEO, ObjectBox

Mit stetig wachsenden Datenmengen und Echtzeitanforderungen, bietet die Cloud oftmals keine Lösung mehr für IoT Anwendungen oder Mobile Applikationen. Der Trend geht daher (zurück) zum Edge Computing und autonomen Programmen. Was ist Edge Computing? Was sind Vor- und Nachteile? Welche Praxisbeispiele gibt es? Was sind die aktuellen Entwicklungen im Bereich Edge Computing? Und was hat ObjectBox damit zu tun? Diese Fragen werden in dem Vortrag beantwortet.

Vivien Dollinger ist Mitgründerin und CEO von ObjectBox, einem Münchner Unternehmen, das eine besonders effiziente Edge Datenbank für Mobile und IoT Applikationen entwickelt hat. Vor ObjectBox leitete Vivien Teams in der Mobile und Games Industrie, zuletzt bei Koch Media als Development Director.