Überblick über Sprecher und Vorträge für den BTD9 am 3. Juni 2016

Hier geht's zur Programmübersicht.

Robotik und Hardwarehacken

Avatar - Telepräsenzrobotik mit Nao und Kinect

Martin Förtsch und Thomas Endres - TNG

Mit Hilfe von humanoiden Robotern, Virtual-Reality Brillen und 3D-Kamerasensoren zur Gestenerkennung kann man die Welt aus den Augen eines Roboters erleben und diesen berührungslos fernsteuern. Das Hardware-Hacking Team der TNG Technology Consulting GmbH hat ein Telepräsenzrobotik-System auf Basis eines NAO-Roboters, einer Oculus Rift und einer Kinect One implementiert, um damit eine immersive Outer-Body-Experience - ähnlich wie im Film "Avatar" - zu ermöglichen. Im Rahmen dieses Vortrags wird durch mehrere interaktive Live-Coding Beispiele die einfache Programmierung des Roboters mit Programmiersprachen wie Python oder Java nähergebracht. Nach einer Live-Demonstration werden Sie durch den gesamten Programmablauf des Telepräsenzsystems geführt und auch die Herausforderungen kennenlernen, welche sich bei der Implementierung boten. Die Sprecher geben einen kurzen Einblick in die Welt der Telerobotik und gehen neben einem kurzen historischen Abriss insbesondere auf aktuelle Trends und Anwendungsfälle in der heutigen Zeit ein.

Forget GUI, think Dialog User Interface with Humanoid Robots (auf Englisch)

Jonas Lerebours - Field Engineer für die NAO und Pepper Robotersoftware-Applikationsentwicklung, und Andrea Mestre - Sales Manager Central Europe, SoftBank Robotics

Aldebaran ist weltweit führend in der humanoiden Robotik. Das Unternehmen wurde im Jahr 2005 gegründet und ist eine Tochtergesellschaft der Softbank Robotics mit Sitz in Paris (Frankreich). Weitere Büros befinden sich in Boston (MA, USA), San Carlos (CA, USA), Shanghai (China) und Tokio (Japan). Insgesamt verkaufte Aldebaran bereits mehr als 20.000 Roboter. Dieser Vortrag zeigt, wie humanoide Roboter in der Lage sind, Ihre Kundenerfahrung zu verbessern. Nach einem kurzen Überblick über den Stand der Technik in der humanoiden Robotik werden wir auf den Wert der Emotionserkennung eingehen. Darüber hinaus zeigen wir ein kleines Tutorial zur Entwicklung einer Point-of-Sales-App, damit Sie "GUI vergessen und stattdessen an die Dialog-Benutzeroberfläche mit Pepper denken". Beginnend mit einem kurzen Überblick über die Programmiertools, werden wir einen Blick auf das SDK und qiChat werfen und mit der Tablet-Schnittstelle von Pepper interagieren. Zum Abschluss der Präsentation werden Sie entdecken, wie Animationen programmiert werden und die App für den Endkunden paketiert wird. 

Jonas studierte Elektrotechnik an der Technischen Hochschule von Montreal. Seit 2013 erforscht er Anwendungsfälle für mehrere Branchen, die humanoiden Roboter wie NAO und Pepper einsetzen. Dabei programmiert er vor allem in Python, C++, Java, HTML und JavaScript. 

Seit 2010 ist Andrea verantwortlich für Geschäftspartnerschaften, um die Nutzung von humanoiden Robotern zu erweitern. Durch die große Verbreitung in der Forschung und Bildung weitet sich der Einsatz von Aldebaran Robotern nun schnell auch auf neue Märkte wie Gesundheitswesen, Banken und Einzelhandel aus.

Die Hyperloop ist ein High-Speed-Transportkonzept, das Elon Musk im Jahr 2013 vorgeschlagen hat. Durch die Reduzierung von Luftwiderstand und Reibung ermöglicht das Full-Scale-Konzept es Passagierkapseln innerhalb einer Semi-Vakuumröhre Geschwindigkeiten von bis zu 1200 km/h zu erreichen. Mariana Avezum und Johannes Gutsmiedl sind Teil eines Teams aus 35 Studenten, das am SpaceX Hyperloop Pod Wettbewerb teilnimmt. Das Team der TU München ist eines der nur 30 Teams weltweit, die es in die Endrunde geschafft haben. Die Konstruktion des 4m langen Prototypen, der einen Turbo-Kompressor und ein magnetisches Schwebesystem umfasst, ist in vollem Gange. Seit seiner Gründung vor 7 Monaten ist das Team durch mehrere Iterationszyklen gegangen, um ein sicheres und skalierbares Prototyp-Design zu erreichen. Das Design und der Konstruktionsprozess wird durch die Darstellung der Herausforderungen und die auf dem Weg gefundenen Lösungen erläutert. Die Vorteile eines dynamischen und multidisziplinären Studententeams können schnell in der erstaunlichen Menge an Arbeitsergebnissen gesehen werde, die in so kurzer Zeit erreicht wurden.

Ursprünglich aus Brasilien, Mariana Avezum macht gerade Ihren Masterabschluss in Informatik an der Technischen Universität München fertig. Nachdem sie über den von Elon Musk angekündigten Wettbewerb erfahren hat, hat sie sich entschieden, ein Studentenprojekt zu starten. 

Diana Papyan studiert Informatik an der Technischen Universität München. Sie ist Computer Lead des WARR Hyperloop Projekts und ist verantwortlich für die Echtzeitanforderungen des Systems. In einem so großen Projekt ist es wichtig, dass alle Subsysteme einen zuverlässigen Kommunikationsmechanismus haben und alle sicherheitsrelevanten Informationen ordnungsgemäß verarbeitet werden.

Arduino in der Robotik

Alexander Entinger - CEO/CTO, LXRobotics

In diesem praxisorientierten Vortrag berichtet Alexander Entinger über seine persönlichen Erfahrungen beim Einsatz von Arduino in der Robotik. Als erster Schritt wird dabei die historische Entwicklung der Arduinos geschildert und anschließend das hinter Arduino stehende Konzept präsentiert. Danach werden verschiedene, durch den Vortragenden selbst gebaute Roboter vorgestellt, bei denen Arduino Technologie in der einen oder anderen Weise eingesetzt wird. Der Vortrag beginnt mit so einfachen Maschinen wie dem Mini-Sumo-Roboter Sergeant Pain, wo eine Arduino ähnliche Steuerung für die Kontrolle aller Sensoren und Aktoren des Roboters ausreicht, bis hin zu komplexen, ROS basierten Robotern wie dem SLAM Demonstrator Beauty Queen oder dem Rettungsroboter Conrad.

Alexander Entinger ist Gründer und Geschäftsführer der LXRobotics GmbH. LXRobotics  entwickelt, produziert und verkauft Arduino Shields für Hobby, Research, Education und Rapid Prototyping. Parallel ist er als Software Entwickler für eingebettete Systeme bei der Firma DS Automotion tätig, dem in Europa führenden Anbieter von fahrerlosen Transportfahrzeugen. Weiters betreut er das Studentenprojekt RoboCupRescue an der Fachhochschule Hagenberg bei dem ein Rettungsroboter für den Einsatz in Katastrophenszenarien entwickelt wird. Der Quellcode der dabei entwickelten Module wird unter einer permissiven Open Source Lizenz der Allgemeinheit zur Verfügung gestellt. In seiner Freizeit hat Alexander Entinger zahlreiche Roboter gebaut und damit bei verschiedenen Wettbewerben erfolgreich teilgenommen. So hat er mit dem Featherweight Schnauzer das Mad-Metal-Machines Vol. 19 Event sowie den European Robot Combat Cup 2015 gewonnen.

Big Data, Big Systems und IoT

Die Zukunft der Hardware-Entwicklung - Brauchen wir neue Systemkonzepte für Künstliche Intelligenz?

Heiko Schick, Direktor des Advanced Computing Labs, Huawei Technologies

Herr Heiko Jörg Schick hat ein Diplom in Kommunikation und Software Engineering. Er ist seit 2004 am IBM Forschungs- und Entwicklungslabor in Böblingen, wo er verschiedene Positionen als Hardware- und Softwareentwickler sowie  Projekt- und Bring-up-Manager inne hat. In diesen Positionen leitete er global integrierte Teams dazu an, energieeffiziente Supercomputer, High-Performance-Computing und Big Data- Systeme zu bauen. Seit 2015 arbeitet er als Chief Architect for Advanced Computing für das deutsche Forschungszentrum von Huawei. In dieser Rolle arbeitet er an neuen Architekturen wie Künstlicher Intelligenz, um die großen Herausforderungen der zukünftigen Arbeitslast zu überwinden.

Apache Flink(tm) - A Next-Generation Stream Processor

Aljoscha Krettek - PMC Member bei Apache Flink sowie Co-Founder und Software Engineer bei Data Artisans

In diesem Vortrag wird es zunächst einen kurzen Überblick über den aktuellen Stand im Bereich der Streaming-Datenanalyse geben. Danach wird es mit einer kleinen Einführung in das Apache-Flink-System zur Echtzeit-Datenanalyse weitergehen, bevor wir tiefer in einige der interessanten Eigenschaften eintauchen werden, die Flink von den anderen Spielern in diesem Bereich unterscheidet. Dazu werden wir beispielhafte Anwendungsfälle betrachten, die entweder direkt von Nutzern stammen oder auf unserer Erfahrung mit Nutzern basieren. Spezielle Eigenschaften, die wir betrachten werden, sind beispielsweise die Unterstützung für die Zerlegung von Events in einzelnen Sessions basierend auf der Zeit, zu der ein Ereignis passierte (event-time), Bestimmung von Zeitpunkten zum jeweiligen Speichern des Zustands eines Streaming-Programms für spätere Neustarts, die effiziente Abwicklung bei sehr großen zustandsorientierten Streaming-Berechnungen und die Zugänglichkeit des Zustandes von außerhalb.

Aljoscha Krettek ist PMC-Mitglied bei Apache Flink sowie Mitgründer und Softwareentwickler bei data Artisans. Aljoscha studierte Informatik an der TU Berlin, er arbeitete bei IBM Deutschland und am IBM Almaden Forschungszentrum in San Jose.

Verbindung zum Kern des Internets – Einsichten eines Internet-Knotenbetreibers

Sascha Bleidner - Head of Research and Development bei DE-CIX

In den letzten 20 Jahren wurden Internet-Knoten (Internet Exchange Points, IXPs) zu einem essentiellen Teil innerhalb des Internet-Verbindungssystems. Während sie in Anzahl und Größe wuchsen, schaffen die größten IXPs über 5 Tbps an Spitzenbelastung. Die enorme Menge an Traffic wird unterstützt durch die Beliebtheit von Peering-Verbindungen unter den IXP-Kunden. Während sich das Geschäftsmodell für die IXPs in den letzten Jahren als erfolgreich erwiesen hat, sind die IXP-Betreiber begeistert daran, das Verbindungs-Geschäft sogar noch weiterzutreiben mit Innovation im Kern des Internets. Dieser Vortrag gibt einen kurzen Überblick über den Aufstieg von IXPs, während der Fokus auf den technischen Herausforderungen und Lösungen für den erfolgreichen Aufbau und Betrieb von IXPs liegt.

Sascha Bleidner schloss 2015 seinen Master in Communication Systems Engineering an der TU Darmstadt ab. Mitte 2015 kam er als Junior Researcher zur Forschungs- & Entwicklungsabteilung des DE-CIX. Der Fokus seiner Arbeit liegt auf der Anwendung von Software-Defined Networking (SDN) an Internet-Knoten. Dabei betreibt er Forschung im Bereich Routing, großangelegte Internet-Messungen und Überwachungssysteme für Netzwerke. In Februar 2016 wurde er zum Leiter der F&E-Abteilung von DE-CIX befördert.

How to Connect Billions of Things to the Internet, in 3 Easy Steps

Jan Metzner - Solutions Architect Mobile/IoT EMEA, Amazon Web Services

Dieser Vortrag wird Ihnen zeigen, wie Sie Ihre eigene IoT-Plattform aufbauen, um Millionen von Geräten zu integrieren und verbinden. Wie Sie die Geräte sicher mit der Cloud verbinden, wie Sie instantan auf Daten reagieren können, wie Sie Daten sammeln, um Analytik zu betreiben, und wie Sie ein Gerät ansprechen können, egal ob es online ist oder nicht. Der Vortrag wird auch die Integration zu AWS und 3rd-Party- Diensten für Analyse, Lagerung und Prognose abdecken. Wir tauchen tief in die Authentifizierung und Autorisierung in großem Maßstab ein, den Datenfluss und die Synchronisation von Geräten und wie die AWS-Komponenten helfen können, die Entwicklung zu beschleunigen sowie komplette Plattformen zu betreiben, ohne Server-Instanzen verwalten zu müssen.

Jan Metzner ist Solution Architect für IoT und Mobile in EMEA bei Amazon Web Services. In seiner Arbeit hilft Jan Kunden bei der Architektur, Entwicklung und Arbeit mit skalierbaren und hoch innovativen Lösungen auf der AWS Plattform. Jan mag es, die technologischen Grenzen auszureizen und zu verschieben und besitzt eine Leidenschaft für mobile und IoT-Anwendungen. Bevor er zu AWS kam, war Jan mehr als 12 Jahre in High-Tech Startups und Unternehmen tätig und half Kunden bei der Entwicklung von innovativen Software-Lösungen.

Telefónica Data Anonymization Platform - Anatomy of a Big Data Application

Jonathan Ukena - Telefónica und Michael Pisula - TNG

Immer mehr Anwendungen, die unser Leben vereinfachen, beruhen auf der Analyse von Daten: Internet-Suchen führen in Millisekunden zu passenden Ergebnissen, Pakete kommen pünktlicher an und Spam-Filter blockieren unerwünschte E-Mails durch Erkennung von Textmustern. Die Grundlage dafür sind statistische Verfahren. Sie können Daten auf wiederkehrende Muster untersuchen und so wertvolle Informationen daraus ableiten. Dabei gilt ein einfacher Zusammenhang: Je umfangreicher die Datengrundlage ist, desto deutlicher sind die Muster und desto verlässlicher werden die abgeleiteten Erkenntnisse. Um statistische Analysen verantwortungsvoll umsetzen zu können, hat Telefónica in Deutschland ein neues und innovatives Anonymisierungsverfahren entwickelt und zum Patent angemeldet: Die Telefónica Data Anonymization Platform (DAP). Sie wurde in enger Abstimmung mit den deutschen Datenschutzbehörden entwickelt und erfüllt somit höchste Standards. Das neue Verfahren stellt sicher, dass bei dem Erstellen von Statistiken keine Rückschlüsse auf persönliche Daten möglich sind. Dieser Vortrag stellt die wichtigsten Konzepte hinter der DAP vor, geht auf einige der technischen Entscheidungen und Herausforderungen ein und befasst sich mit Big Data als zentralem Baustein der Anwendung.

Jonathan Ukena ist seit 2010 im Digitalbereich von Telefónica Deutschland tätig. Hier verantwortete er seit 2012 die Business Development Aktivitäten für den Themenkomplex Big Data. Dabei war er unter anderem federführend in der Konzeption der Telefónica Data Anonymization Platform (DAP). Als Business Owner leitet Herr Ukena heute die strategische Weiterentwicklung der Plattform als technische und rechtliche Grundlage einer Vielzahl von Geschäftsmodellen im neu gegründeten deutschen Geschäftsbereich Advanced Data Analytics, global innerhalb Telefónica S.A. Gruppe sowie mit weiteren Partnern. Herr Ukena verfügt über 15 Jahre Praxiserfahrungen in den Bereichen Informationstechnik und Softwareentwicklung, welche er sich u.a. als Projektleiter in einem mittelständischen Systemhaus, als selbstständiger Berater sowie als Mitarbeiter in der universitären Forschungsgruppe wi-mobile aneignete. Nach einer Ausbildung zum IT-Systemkaufmann spezialisierte er sich im Studiengang informationsorientierte Betriebswirtschaftslehre an der Universität Augsburg in den Themen Business Intelligence und Mobile Commerce und erwarb zwei Abschlüsse als Bachelor of Science und Diplomkaufmann.

Michael Pisula hat Informatik an der Universität Passau studiert. Sein besonderes Interesse gilt den verteilten Systemen, insbesondere der immer wichtiger werdenden Big Data Welt. Als Senior Consultant bei TNG hilft er unseren Kunden wenn es um Big Data, Akka, Continuous Integration und allgemein um nicht-triviale Probleme geht.

Unlocking the True Value of Big Data with Open Data Science (auf Englisch)

Dr. Kristopher Overholt, Solution Architect, Continuum Analytics

Das große Potenzial der Big Data Analytik ist in allen Stufen und insbesondere in der Industrie unumstritten. Trotzdem tun sich manche Organisationen immer noch schwer, deren wahren Wert zu erschließen. Selbst mit den neusten verteilten Ausführungs-Frameworks im Hadoop Ökosystem, besteht die Herausforderung, Big Data, fortgeschrittene Analytik und die Rechenleistung in den Clustern sinnvoll einzusetzen. Organisationen müssen Datenwissenschaftlern und -analysten ermöglichen, Lösungen voranzutreiben, welche Datenanalytik, Visualisierung, Parallelisierung und Optimierung einschließen. Zudem müssen sie hoch- und herausskalieren, um verteilte Berechnungen in Clusterumgebungen ausführen zu können, welche Instrumente der Open Data Science nutzen, einschließlich Python und R Ökosysteme. Firmen benötigen Flexibilität, eine hohe Leistung und eine effiziente Speichernutzung, um ihre Big Data Prozesse ausweiten zu können. Dies gilt insbesondere für numerische und statistische Berechnungen. Für Firmen müssen die Geschäftsergebnisse aus ihren Investitionen in Big Data wirtschaftlich sein und sie brauchen die Fähigkeit, den neusten Innovationen zum Durchbruch zu verhelfen, um die Technologie der vorherigen Generation zu übertreffen. Um dieses Versprechen einzuhalten, muss Big Data Analytik vereinfacht werden, sodass die Kompetenzen, die in einem Unternehmen existieren, den Nutzen von Big Data einfach maximieren können. Das erfordert ein skalierbares Paket- und Abhängigkeitsmanagement existierender Analytikmethoden, genauso wie flexible parallele Frameworks, um die Big Data-Prozesse, einschließlich maschinellem Lernen, Bildverarbeitung und natürlicher Sprachverarbeitung ausweiten zu können. In diesem Vortrag werden Unternehmen lernen, die Macht von Open Data Science wirksam einzusetzen, um Wert zu generieren und eine hohe Leistung und interaktive Analytik von Big Data zu erhalten. Der Vortragende wird Beispiele von sehr leistungsstarken, verteilten Python-Berechnungen vorstellen, welche folgende Punkte beinhalten:

  • Natürliche Sprachverarbeitung In-Memory und interaktive Suchen im Text in HDFS
  • Analyse von Taxidaten aus NYC durch verteilte Datenrahmen auf einem Cluster auf HDFS
  • Generierung von interaktiven verteilten Visualisierungen globaler Temperaturdaten
  • Parallelisierung von existierendem Legacy-Code in kundenspezifischen Dateiformaten

Wir werden erfahren, wie man eine blitzschnelle, rechenintensive verteilte Analytik mit Python erreichen kann, um den vollen Wert von Big Data entfalten zu können.

Kristopher Overholt ist Solution Architect bei Continuum Analytics, wo er sich mit wissenschaftlicher Softwareentwicklung und verteiltem / Cluster-Computing beschäftigt, darin Python, Hadoop und Spark zur Datenanalyse und für Workflows zur Generierung von Daten eingeschlossen. Kristopher promovierte im Jahr 2013 in Bauingenieurwesen an der University of Texas in Austin und hält einen B.S. und M. S. in Brandschutztechnik. Vor seinem Einstieg bei Continuum arbeitete er am National Institute of Standards and Technology (NIST), am Southwest Research Institute und an der University of Texas in Austin. Kristopher verfügt über mehr als ein Jahrzehnt Erfahrung in Bereichen wie angewendet Forschung, wissenschaftlichen Rechnens, kleinskalige und und großskalige Experimente, Systemverwaltung, Open Source Softwareentwicklung, Computermodellierung und praktischer Arbeit im Bereich Technik / Elektronik.

Future Technology

A Perspective on Wearable Computing Platforms (auf Englisch)

Toby Martin, Head of SW-Development, Bragi

Tragbare Technologien und insbesondere Hearables, haben in den letzten Jahren erhebliche Fortschritte erfahren. Bragi war insbesondere mit der Dash an der Spitze dieser Fortschritte. Dieser Vortrag wird einige der ermöglichenden Technologien beleuchten und auf praktische Schwierigkeiten sowie Möglichkeiten für die Zukunft eingehen.

Kleine Satelliten für große Aufgaben - Anwendungen in Erdbeobachtung und Telekommunikation

Prof. Dr. Klaus Schilling - Inhaber des Lehrstuhls für Robotik und Telematik an der Universität Würzburg

Moderne Miniaturisierungstechnik ermöglicht es, komplette Satelliten mit wenigen Kilogramm Masse herzustellen, die erstaunlich leistungsfähig sind. Formationen aus Kleinst-Satelliten können so kostengünstig in die Umlaufbahn gebracht werden und eröffnen innovative Anwendungen bei Telekommunikation und Erdbeobachtung. Für die Industrie bietet dies interessante Perspektiven bei Industrie 4.0 und Digitalisierung, um globale Dienstleistungen wie die Fernwartung von Maschinen und Produktionsanlagen auch auf anderen Kontinenten effizient anbieten zu können. Auch für die Logistik eröffnen derartige Erdbeobachtungs- und Kommunikationsnetze den Weg für neue Ansätze zur weltweiten Verfolgung der Warentransporte. Die die zuverlässigere Bordelektronik, ebenso wie die leistungsfähigere Lage- und Orbit-Kontrolle bahnten hier den Weg zu kommerziellen Anwendungen. Allein in den letzten beiden Jahren wurden 200 Kleinst-Satelliten in Ihre Erdumlaufbahn gebracht.

Prof. Dr. Schilling war in der Raumfahrtindustrie an der Realisierung interplanetarer Satelliten (wie HUYGENS zum Saturn-Mond Titan oder ROSETTA zur Erforschung der Kometen) beteiligt, bevor er zum Ordinarius Informatik VII: Robotik und Telematik an der Universität Würzburg berufen wurde. Parallel ist er Vorstand der außeruniversitären Forschungseinrichtung „Zentrum für Telematik (ZfT)“. Er ist Mitglied der International Academy of Astronautics und war an der Stanford University 2002-2006 als Consulting Professor tätig. Er erhielt 2012 einen ERC Advanced Grant, sowie den Walter-Reis-Award for Innovations in Robotics sowohl 2008 (für Arbeiten zu Roboterfahrzeugen) als auch 2012 (für Medizin-Robotik-Anwendungen) verliehen. Er unterstützt IFAC als Coordinating Chair „Computers and Control“ und war bei IEEE chairman des „Technical Committee on Networked Robotics“.

Quantum vs Classical Optimization: A Status Update on the Arms Race (auf Englisch)

Prof. Helmut G. Katzgraber - Department of Physics & Astronomy, Texas A&M University - Santa Fe Institute, New Mexico

Können Quantencomputer die verlockenden Versprechen der Lösung komplexer Berechnungen - wie Optimierungsprobleme oder Datenbankabfragen - schneller als klassische Computer basierend auf Transistortechnologien erfüllen? Obwohl IBM vor kurzem ihren fünf Qubit programmierbaren Quantencomputer der Öffentlichkeit zum Basteln zugänglich gemacht hat, ist der heilige Gral eines nützlichen großflächig einsetzbaren, universellen Quantencomputers noch Jahrzehnte entfernt. Obwohl funktionierende mittelgroße programmierbare, an Sondereinsatzzwecke gebundene Quanten-Optimierungsmaschinen bereits existieren, bleibt ein schlüssiger Nachweis von Quantenbeschleunigung trotz der vielversprechenden Ergebnisse der Google Inc. umstritten. In diesem Vortrag werde ich erläutern, wie wir die typischen Schwierigkeiten von Optimierungsproblemen vorhersagen können, ohne sie mit dem Ziel zu lösen, jede Quantenhaftigkeit aus diesen Maschinen zu kitzeln, und gleichzeitig bei der Suche nach der "Killer"-Anwendungsdomäne, in der Quantenoptimierung hervorstechen könnte, zu helfen. Schließlich wird ein Überblick über die verschiedenen aufeinanderfolgenden, nicht zugeschnittenen, sowie speziellen maßgeschneiderten klassischen state-of-the-art Algorithmen gegeben. Aktuelle Technologien des Quanten-Annealing müssen diese übertreffen, um die Krone im Rennen um die Quantenbeschleunigung beanspruchen zu dürfen.

Helmut Katzgraber wurde in Lima, Peru geboren und ist österreichischer Staatsbürger. Nachdem er in Lima aufgewachsen ist und den österreichischen Militärdienst abgeleistet hat, studierte er Physik an der ETH Zürich, wo er mit einem Diplom mit Auszeichnung unter der Leitung von Prof. Gianni Blatter absolvierte. Er erhielt seinen Doktortitel in Physik im Jahr 2001 unter der Leitung von Prof. A. Peter Young an der University of California Santa Cruz für numerische Untersuchungen von Spin-Glas-Systeme. Nach einem einjährigen Postdoc bei Prof. Gergely Zimányi und Richard Scalettar an der University of California Davis, wo er an numerischen Untersuchungen magnetischer Aufzeichnungsmedien arbeitete, kehrte er 2002 als Postdoc in die Gruppe von Prof. Gianni Blatter am Institut für Theoretische Physik an der ETH Zürich zurück. Im Jahr 2007 wurde er mit einer Schweizer National Science Foundation Professur ausgezeichnet und im Jahr 2009 trat er TAMU als Tenure-Track-Assistenzprofessor bei. Im Jahr 2011 erhielt er eine NSF CAREER-Preis. Im Jahr 2012 wurde er in den Rang eines Associate Professor in der Physik und Astronomie-Abteilung bei TAMU fest angestellt und im Jahr 2015 zum Professor befördert. Parallel dazu ist er seit 2014 externes Fakultätsmitglied am Santa Fe Institute in New Mexico. Seine Forschungsschwerpunkte in Computational Physics sind die Untersuchung von ungeordneten und komplexen Systemen sowie die Untersuchung von Fragen aus dem Bereich Quantencomputer.

Fahren ohne Fahrer: Was funktioniert (und wie) und was eher nicht (und wieso)?

Prof. Dr. Ralf G. Herrtwich - Leiter Fahrzeugautomatisierung und Fahrwerkssysteme, Mercedes-Benz Forschung und Entwicklung, Daimler AG

Mit der Einführung von Mercedes-Benz Intelligent Drive hat das autonome Fahren Einzug ins Fahrzeug gefeiert: Seit 2013 können Daimler-Limousinen selbsttägig im Stau mitfahren, ohne dass der Fahrer die Hände ans Lenkrad nehmen muss. Fieberhaft arbeitet die Automobilbranche – aber nicht nur sie – an weitergehenden Lösungen für automatisierte Fahrfunktionen. Die Stoßrichtungen sind vielfältig: Vom selbständigen Einparkvorgang über die autonome Autobahnfahrt bis hin zum völlig fahrerlosen Fahrzeug ist alles dabei. Reden wir über die Schwierigkeiten und Realisierungschancen der einzelnen Ansätze und werfen wir einen Blick in die Zukunft des Auto-Mobils, das vielleicht erst dann seinen Namen wirklich verdient hat!

Ralf G. Herrtwich entwickelt selbstfahrende Fahrzeuge für Mercedes-Benz. 2013 schuf sein Team eine S-Klasse, welche die historische 100 km lange Bertha-Benz-Route der ersten automobilen Fernfahrt der Geschichte autonom im fließenden Verkehr bewältigte. Als Leiter des Bereichs Fahrzeugautomatisierung und Fahrwerksysteme ist Dr. Herrtwich verantwortlich für die Konzeption und Entwicklung künftiger Sicherheits- und Komfortinnovationen in Daimler-Fahrzeugen. Als Informatiker begann er seine Karriere im akademischen Bereich an der TU Berlin und der UC Berkeley. Er hatte mehrere Management-Positionen bei IBM und diversen Telekommunikations-Startups inne, bevor er 1998 zu Daimler stieß, um dort die Forschung in den Bereichen Telematik und Fahrzeug-Infotainment zu leiten. Seit 2009 ist er zusätzlich Honorarprofessor für Fahrzeug­informationstechnik an der TU Berlin.

Städte und Gemeinden sind derzeit auf der Suche nach neuen Strategien, um die Lebensqualität und die Qualität der Wirtschaftssysteme zu verbessern, ohne existentielle soziale Werte zu verletzen. Die Geschichte zweier Städte zeigt, wie wir das Konzept der Smart City in den beiden jüngsten Projekten, die wir gewonnen haben, umsetzen und wie Daten den Stadtraum und die Architektur verändern, um neue Räume zu schaffen und die Lebensqualität wieder zu steigern. Dies wird anhand von zwei unterschiedlichen Fällen gezeigt: Barcelona, mit mehr als 2 Millionen Einwohnern allein im Stadtgebiet [die etwa 75% der städtischen Bevölkerung repräsentieren] und Beasain, eine sehr dynamische Industriestadt in Gipuzkoa mit 9.500 Einwohnern.

Iñaki Arbelaiz [MSc Architektur und Stadtplanung, MSc Interaktion, PDD Business Development and Growth] ist der CEO von KUDA ! [Kultur + Urbanismus + Design + Architektur]. Er hat sich seit längerer Zeit auf die Städte und ihre angeschlossenen Systeme fokussiert. Er ist Mitglied von Entscheidungsgremien mehrerer territorialer Verwaltungs- und Politik-Räte und hat zusammen mit den Städten Barcelona, ​London und Rotterdam auf verschiedenen Ebenen an der Entwicklung des öffentlichen Raums und an der strategischen Planung von umweltfreundlicheren Gebäuden und Energieverbrauch gearbeitet. Zu seinen früheren Erfahrungen zählen die Positionen als Projektarchitekt und Projektmanager, unter anderem bei EWR Rotterdam, EWR Moskau und Budapest, OMA Rotterdam und Llinás in Barcelona, ​​im Rahmen dessen er in mehreren Städten dieser Welt gearbeitet hat.

IT-Sicherheit und Datenschutz

Der Datenschutz ist oftmals ein Totschlagargument, warum Dinge nicht gehen. Es wird oftmals von denen gebraucht, die von Datenschutz nur wenig Ahnung haben. Auf der anderen Seite mag man sich datenschutzrechtlich sicher fühlen und dann von seltsamen Regelungen überrascht werden. Datenschutz: eine Mischung aus Voodo und Regelungswut? Der Vortrag soll die Grundprinzipien deutlich machen und an einigen Fällen, bei denen man intuitiv vielleicht falsch liegt, deutlich machen, worin die Fallstricke liegen. Auf der anderen Seite soll gezeigt werden, dass konsequenter Datenschutz zentrales Element funktionierender Compliance ist und auch vom Markt honoriert wird.

Prof. Dr. Gregor Thüsing, LL.M (Harvard) ist Mitglied im Vorstand der Gesellschaft für Datenschutz und Datensicherheit e. V., der größten Datenschutzorganisation der Bundesrepublik. Er ist Lehrstuhlinhaber an der Universität Bonn und beschäftigt sich dort insbesondere auch mit Datenschutz und Compliancefragen. Er gilt als ausgezeichneter Redner und herausragender Experte seines Faches.

Das Internet ist ein vernetztes System, dessen Dienste für die Bevölkerung von zentraler Bedeutung sind. Gleichzeitig sind Internet-basierte Dienste zahlreichen Bedrohungen ausgesetzt, die unter Fachleuten schon seit vielen Jahren diskutiert werden, deren Ausmaß aber erst seit den durch Edward Snowden zugänglich gemachten Dokumenten zu einem Thema von allgemeinem Interesse wurde. In diesem Vortrag wird zunächst ein Überblick gegeben über die seit den Snowden-Enthüllungen bekannten Angriffsmöglichkeiten. Anschließend werden aufgezeigt, in wieweit sich auch gegenüber starken Angreifern vertrauenswürdige Internet-basierte Dienste realisieren lassen. Kurzbiografie:

Prof. Dr.-Ing. Georg Carle ist Inhaber des Lehrstuhls "Netzarchitekturen und Netzdienste" der Technischen Universität München sowie Information Officer und RBG-Direktor der Fakultät für Informatik. Er studierte Elektrotechnik an der Universität Stuttgart und der Ecole Nationale Supérieure des Télécommunications in Paris und erwarb an der Brunel University in London einen Master of Science in Digital Systems. Am Institut für Telematik der Universität Karlsruhe promovierte er 1996 als Stipendiat des Graduiertenkollegs "Beherrschbarkeit komplexer Systeme". 1997 war er mit einem Stipendium der Europäischen Gemeinschaft am Institut Eurécom in Sophia Antipolis tätig. Beim Fraunhofer Institut für Offene Kommunikationssysteme (FOKUS) in Berlin, wo er von Ende 1997 bis Ende 2002 tätig war, leitete er das Kompetenzzentrum 'Global Networking'. 2003 wechselte er an die Universität Tübingen auf den neu geschaffenen Lehrstuhl "Rechnernetze und Internet". Im Jahr 2008 folgte er einem Ruf an die TU München. Schwerpunkte seiner Arbeit sind Internet-Technologien und Netzsicherheit

Die IT-Sicherheit wirkt oft wie ein knappes Rennen zwischen denen, die Computersysteme hacken, und denen, die die Lücken flicken. Das muss nicht so sein! Der Vortrag plädiert für eine wissenschaftliche Herangehensweise an die IT-Sicherheit: nach dem Vorbild der Kryptographie, basierend auf klaren Definitionen, expliziten Annahmen und Beweisen in (mathematischen) Modellen. Diese Herangehensweise ermöglicht es, große Klassen von Angriffen prinzipiell auszuschließen. Auch solche, die noch nie aufgetreten sind. Anhand von Beispielen aus Kryptographie und IT-Sicherheit wird dargelegt, wie man in der modernen Kryptographie Angreifer und Anwendungsumgebungen modelliert, Sicherheit definiert und nachweist. Der Schwerpunkt liegt dabei auf einer Modellierung, die einen modularen Entwurf komplexer sicherer Systeme erlaubt.

Professor Jörn Müller-Quade studierte Informatik in Erlangen und Karlsruhe und promovierte 1998 an der Universität Karlsruhe (TH) im Bereich Computeralgebra. Von 1999 bis 2001 war er PostDoc am Imai-Laboratory der Universität von Tokyo. In den Jahren 2001 bis 2003 leitete er den Karlsruher Teil des BMBF Verbundprojekts Quantenkryptographie. Von 2003 bis 2008 war er Emmy Noether-Nachwuchsgruppenleiter und erforschte langfristig sichere Kryptographie. Im Jahr 2008 wurde Jörn Müller-Quade und seiner Arbeitsgruppe der Deutsche IT-Sicherheitspreis verliehen für das Wahlverfahren “Bingo Voting”. Jörn Müller-Quade wurde 2008 als Experte vom Bundesverfassungsgericht zu Wahlmaschinen angehört. Auch im Jahr 2008 erhielt er einen Ruf an das KIT, wo er seit 2009 den Lehrstuhl für Kryptographie und Sicherheit leitet. Seit 2010 ist Jörn Müller-Quade ein Direktor am FZI. Im Jahr 2011 initiierte er das Kompetenzzentrum KASTEL. Im Jahr 2014 wurde der Deutsche IT-Sicherheitspreis für das Softwareschutz-Verfahren Blurry Box verliehen, eine Kooperation von Herrn Müller-Quade, seiner Arbeitsgruppe und der WIBU Systems AG. Neben seiner wissenschaftlichen Tätigkeit sucht Herr Müller-Quade auch den Dialog mit der Öffentlichkeit. Das Kryptologikum soll das Thema Kryptographie für Laien verständlich machen und Herr Müller-Quade stellte mehrfach Werke im Zentrum für Kunst und Medientechnologie (ZKM) aus, etwa in den Ausstellungen Future Cinema, Lichtkunst aus Kunstlicht und Global Control and Censorship.

Bioinformatik

Analysis of Genome Data and the Move to Precision Medicine (auf Englisch)

Klaus Maisinger - Director Bioinformatics, Illumina

Hohe Durchsatzsequenzierung hat die kostengünstige Analyse von großen Kohorten von menschlichen Genomen ermöglicht. Die Kosten für die Sequenzierung sind in den letzten zehn Jahren mit einer schnelleren Rate als Moores Gesetz gesunken und die Verfügbarkeit von DNA-Sequenzdaten verspricht die Bereitstellung von Anwendungen molekularer und genetischer Daten für die Präzisionsmedizin. In einigen Krankheits-Kontexten sind Gentests bereits in breiter klinischen Anwendung und bevölkerungsweite Sequenzierungsprojekte wie das 100.000 Genom-Projekt in England streben danach, große Kohorten für die translationale Forschung bereitzustellen, während sie durch die Verwendung von Vollgenomsequenzierung in einem nationalen Gesundheitssystem wegweisend sind. Wesentliche Herausforderungen liegen in der Analyse und klinischen Interpretation von genetischen Tests, bei denen Rechenmethoden, Big Data und Lerntechniken möglicherweise Verbesserungen in der diagnostischen Ausbeute beschleunigen können.

Klaus ist Direktor für Bioinformatik bei Illumina, einem Unternehmen, das genetische Analyse-Tools und -Systeme entwickelt. Er schloss sich vor 13 Jahren dem DNA-Sequenzierungs Start-up Solexa an, das später von Illumina aufgekauft wurde und die derzeit am weitesten verbreitete Hochdurchsatz-DNA-Sequenzierungstechnologie entwickelte. In seiner derzeitigen Rolle ist Klaus an Projekten beteiligt, die von der Signalverarbeitung und Datenkomprimierung bis hin zur großskaligen Analyse von Genomdaten und deren Interpretation reicht. Ausgebildet als Physiker an der Universität München (Diplom) und an der University of Cambridge (PhD in der Astrophysik), erinnert sich Klaus gerne an seine Zeit in München zurück.

Die Auffassung, dass Krebs eine evolutionäre Krankheit ist, ist ursprünglich in den 70er Jahren entstanden. Zufällige Mutationen und Selektion im Körper wandeln langsam gesunde Zellen in aggressive Klone um, die sich im Körper ausbreiten, in entferntere Gewebe vordringen und letztlich den Tod des Patienten verursachen. Der Weg des Krebs verläuft daher bei jedem Menschen sehr individuell und ebenso individuell ist das Erbgut von Krebszellen innerhalb jedes Patienten: Ein Effekt, der auch unter dem Namen Heterogenität des Tumors bekannt ist. Erst in den letzten Jahren haben die Bemühungen der Sequenzierung der nächsten Generation das Ausmaß der inter- und intra-Tumor-Heterogenität enthüllt. Große Mengen genomischer und transkriptomischer Daten zu allen bekannten menschlichen Krebstypen wurden gesammelt, um uns ein Bild der genetischen Landschaft von Krebs zu liefern. Die große Herausforderung der nächsten Jahre wird sein, diesen Daten einen Sinn zu geben. Dies verlangt von uns, die Art und Weise, wie wir über Datenspeicherung, Verteilung und Analyse denken, zu ändern. Als Beispiel werde ich das Projekt „Pan-Krebs-Analyse ganzer Genome“ vorstellen, eine Kooperation von zwei führenden Krebs-Ressourcen-Konsortien - das International Cancer Genome Consortium (ICGC) und das Cancer Genome Atlas (TCGA) - mit dem Ziel, mehr als 2500 komplette Krebsgenome und -transkriptome zu generieren und analysieren. In dem Vortrag werde ich zeigen, wie die Gesamtmenge von über 300 TB an Daten zu der Adoption von Cloud-Computing-Ressourcen für die wissenschaftliche Datenanalyse führt und was die Datenmenge für die tägliche Arbeit von Wissenschaftlern bedeutet. Abgesehen von den Herausforderungen, werden wir sehen, wie Big Data neue Machine-Learning-Algorithmen füttern kann und wie Informationen aus solchen Datensätzen in die Klinik mithilfe von translatorischen Bemühungen übertragen werden können.

Roland Schwarz ist derzeit ein interdisziplinärer Forschungsstipendiat an der EBI in Hinxton. Nachdem er zuvor am CRUK Cambridge Institute gearbeitet hat, studiert er Genomevolution und Systemgenetik mit Fokus auf translationale Krebsmedizin. Insbesondere entwickelt er Methoden des maschinellen Lernens und statistische Methoden, um evolutionäre Prozesse auf Genomebene zu modellieren. Ein Beispiel dafür ist die Entwicklung einer Methode zur Berechnung evolutionärer Abstände zwischen Tumor-Kopienzahl-Profilen (MEDICC , Schwarz et al. 2014 , PLoS Comp Bio) und eine begleitende klinische Studie an Patientinnen mit Ovarialkarzinom, in der gezeigt wurde, dass Unterschiede in der Tumor-Heterogenität Chemotherapie-Resistenz in der Klinik vorhersagen (Schwarz et al. 2015 , PLoS Medicine). Neben seiner Forschung lehrt Roland das Netzwerk Biologie-Modul in der MPhil für Computational Biology, organisiert Phylogenetik Seminare, betreut Part II Computer Science für Bioinformatik Studenten und hält weitreichende Vorträge vor Laien und jüngeren Studenten. In seiner Freizeit ist er ein begeisterter Reiter und geht gerne Segeln und Windsurfen. Die gesamte Publikationsliste ist hier einsehbar: scholar.google.com/citations

Finanzinformatik

Da wir das einzige Unternehmen sind, die einen kompletten Software-Stack auf Basis von Ruby on Rails für Banken entwickeln und in Anbetracht dessen, das dieser Stack als einer der wenigen komplett API basiert ist, sehen wir uns selbst als die "Piraten des Bankings". Aktuell basieren drei Bankanwendungen auf diesem Stack, der aus einer Code-Basis besteht. Diese Anwendungen werden in zwei Ländern betrieben und unterstützen mehrere Sprachen und Währungen. Dieses Jahr kommen mindestens zwei weitere Länder hinzu, sowie viele neue Sprachen und Währungen. Der gesamte Stack kann dabei von uns oder direkt beim Kunden gehostet werden. Dieser Vortrag zeigt die Herausforderungen aber auch die Vorteile auf, die sich aus Ruby on Rails ergeben haben. Ich spreche darüber, wie wir auf dieser Basis moderne Methoden und Technologien wie Mikroservices, agile Produktteams, Cloud- und Containertechnologien und vieles mehr nutzen, um skalierbare, stabile und zuverlässige Bankensoftware zu betreiben. Außerdem behandelt der Vortrag, wir wir mit Hilfe von Rails aus einer einzigen, speziellen Kundeninstallation eine Lösung mit Standardpaketen für viele Kunden zur Vor-Ort-Installation entwickelt haben.

Marc Grimme ist seit 2014 für die Software-Entwicklung bei Fidor zuständig. Fidor, ursprünglich FidorTecs, ist die ausgelagerte IT-Abteilung der Fidor Bank Deutschland. Seitdem war er an vielen Projekten beteiligt. Mit der Umfirmierung Anfang 2016 der FidorTecs zur Fidor AG wurde er CTO bei Fidor und leitet seit dem die gesamte Entwicklung. Als einer von 4 Gründern und Vorständen der ATIX AG war er zuvor 20 Jahre lang für die Software Entwicklung und die Durchführung technischer Projekte zuständig. ATIX widmet sich innovativen Produkten für Linux-basierte Rechenzentren. Er ist der Überzeugung, dass Agile Methoden der Schlüssel erfolgreicher Software-Entwicklungs-Projekte und -Produkte sind.

Banken und Finanzdienstleister sind mehr als viele andere Branchen von einer verfügbaren und sicheren IT für ihren Geschäftsbetrieb abhängig. Auf Grund der Natur ihres Kerngeschäfts - Finanztransaktionen und deren Abbildung in IT - sind sie natürlich besonders für Cyber Kriminelle interessant. Aber nicht nur. In den letzten Jahren hat sich auch gerade die Bankenaufsicht national und international sehr für das Thema Cyber Risk und Cyber Security interessiert. Der Vortrag reflektiert anhand konkreter Beispiele welchen Bedrohungslagen Banken in jüngster Zeit ausgesetzt waren und aktuell sind. Er zeigt zudem auf, welche regulatorischen Anforderungen von den Aufsichtsbehörden in Bezug auf Cyber Security in Prozessen und IT-Systemen umzusetzen sind.

Dr. Walter Kirchmann ist Vorsitzender der Geschäftsführung von Finanz Informatik Technologie Service GmbH (FITS). Dort ist er verantwortlich u.a. für Vertrieb, Finanzen, Personal und Compliance. Vor seiner Tätigkeit bei FITS war er bei Allianz Global Investors als Director Global Business Services, bei der BayernLB als Abteilungsleiter Anwendungsentwicklung für Risikomanagement und Datenhaushalt und davor bei Softlab als Berater und Projektleiter tätig. Er verfügt über einen Abschluß als Dipl.Ing. (FH) Elektrotechnik der Hochschule München, einen MBA des Henley Management College (UK) und hat an der Universität der Bundewehr in Wirtschafts- und Organisationswissenschaften promoviert.

Financial-as-a-Service

Dr. Alexis Eisenhofer - Vorstand, financial.com

Banken und Finanzdienstleistungsunternehmen wandeln sich immer stärker in IT-Unternehmen. Aufgrund von Altsystemen und regulatorischen Vorgaben ist die Anpassungsgeschwindigkeit aber extrem langsam, weswegen sie von innovativen Start-Ups ("FinTechs") angegriffen werden. Hierbei geht es nicht nur darum, Banking besser als eine Bank zu machen, sondern auch durch Peer-to-Peer Plattformen Banking ohne eine Bank zu machen ("Banking is essential, banks are not." - Bill Gates, 1998). Der Vortrag gibt einen Überblick über die besten Financial Services Angebote im Internet.

Alexis Eisenhofer studierte von 1993 bis 1997 Wirtschaftswissenschaften an der LMU München, wo er anschließend am Institut für Kapitalmarktforschung und Finanzierung promovierte. Seit 1999 ist er Gründungsgesellschafter und Vorstand der financial.com AG, eines Anbieters von Börseninformationssystemen mit Sitz in München. Zudem ist er seit 2005 Gründungsmitglied und ehrenamtlicher Vorstand des Münchner Finance Forum e.V., der sich der Förderung des Austauschs zwischen Finanzwissenschaft und institutioneller Kapitalanlage widmet.

Management

Deutschland 2064: Die Zukunft unserer Kinder und die Zukunft der Wertschöpfung!

Dr. Martin Sonnenschein - Partner und Managing Director Central Europe, A. T. Kearney

Wie sieht Wertschöpfung im Jahr 2064 aus? Noch weiß niemand genau, welche Folgen die digitalen Technologien und ihre Vernetzungsmöglichkeiten haben werden. Die Zeiten, in denen Fabriken Arbeitsplätze für viele bieten, in denen sich der Wettbewerb in den Grenzen der eigenen Industrie abspielt und Massenprodukte breiten Absatz finden, scheinen vorbei. Damit erleben wir eine Neudefinition dessen, was wir „industrielle Wertschöpfung“ nennen: Der gesamte Prozess von der Planung eines Produkts über seine Herstellung bis zum Verkauf erfährt eine radikale Neugestaltung. Worauf muss sich der Industriestandort Deutschland einstellen wenn jedes zweite Unternehmen Konkurrenz aus fremden Branchen befürchten – und jedes dritte bereits selbst einen Angriff plant? Wie sieht die Auflösung von Branchen- und Industriegrenzen durch die Digitalisierung aus? Welche Herausforderung kommen auf die Führungskräfte und deren Strategiefindung zu? Wo sind die größten Chancen? Der Vortrag ist ein kleiner Ausschnitt aus einer groß angelegten Studie von A.T. Kearney zu "Deutschland 2064 - die Welt unserer Kinder". Der zugehörige Zukunftsthriller "Germany 2064", von Martin Walker stand viele Wochen auf Bestsellerlisten.

Dr. Martin Sonnenschein ist Partner und Managing Director Central Europe bei A.T. Kearney, einer führenden internationalen Managementberatung. Er verfügt über 16 Jahre Beratungserfahrung mit Schwerpunkt auf industriellen Wachstumschancen und operativen Verbesserungen sowie als Unternehmer und Geschäftsführer. Vor seiner Ernennung zum Zentraleuropa-Chef im Jahr 2009 hat er weltweit die Beratung von Telekommunikations- und High-Tech-Unternehmen verantwortet. Seit 2011 ist er gewähltes Mitglied des Global Board of Directors von A.T. Kearney. Martin Sonnenschein hat zahlreiche Projekte für Unternehmen in unterschiedlichen Branchen auf allen Kontinenten geleitet und ist für einige der wichtigsten Klienten von A.T. Kearney verantwortlich. Im Vordergrund seiner Arbeit stehen Transformation, Wachstum & Innovation sowie digitale Excellence. Er war am Aufbau der heute erfolgreichsten B2B-Marktplätze beteiligt. Vor seinem Wechsel zu A.T. Kearney im Jahr 2000 hat der promovierte Dipl.-Wirtschaftsingenieur vom Karlsruher Institut für Technologie zehn Jahre lang weitreichende Management-Erfahrung als Geschäftsführer schnell wachsender Dienstleistungsunternehmen gesammelt. Martin Sonnenschein unterstützt führende Branchen-Initiativen und Think Tanks, sitzt im Aufsichtsrat verschiedener Unternehmen und ist Co-Autor zahlreicher Bücher. Er ist Initiator von „Deutschland 2064 - Die Welt unserer Kinder“. Er ist zudem Mitgründer des Falling Walls Lab, einer interdisziplinären Plattform für herausragende Talente und investiert immer wieder in Start-ups.

Der Chef ist tot – es lebe das Team? – Führung in einer agilen Organisation

Dr. Martin Wagner - CTO, Mercateo

Das klassische hierarchische Führungsmuster des allwissenden und alles kontrollierenden Chefs funktioniert in hochgradig kreativen Arbeitsumgebungen wie insbesondere der Softwareentwicklung nicht. Mercateo macht sich derzeit auf, eine umfassende B2B Transaktionsplattform zu gestalten. Die dazu nötige Skalierungsfähigkeit hat nicht nur technische, sondern u.a. auch organisatorische Implikationen. Wir sind überzeugt, dass eine skalierende Organisation so viel Autonomie wie möglich zulassen muss und haben deshalb im letzten Jahr das Führungsmodell radikal umorganisiert. Wir haben in der IT Organisation von Mercateo ein auf vier Säulen beruhendes Führungsmodell aufgebaut, das die Verantwortungen klar nach fachlichen, technischen, organisatorischen und personellen Führungsaufgaben trennt. Der Vortrag beleuchtet sowohl die Herausforderungen im Change Management beim Aufbau eines derartigen Modells als auch die Chancen, die sich daraus ergeben. Wir stellen unser Einführungskonzept in- und außerhalb der IT Organisation vor und zeigen anhand von Beispielen wie die Interessenskonflikte zwischen inhaltlicher Produktentwicklung, Weiterentwicklung als Team und persönlicher Weiterentwicklung und Entfaltung im Zusammenspiel der nun mehreren Akteure deutlich sicht- und damit bearbeitbar werden. Schließlich stellen wir die Herausforderungen bei der Organisation übergreifender technologischer Themen und erste Lösungsansätze im Spannungsfeld "einheitliche Architektur vs. Teamautonomie" vor.

Martin Wagner ist seit 2011 CTO von Mercateo. Schwerpunkt seiner Arbeit ist, die Struktur der Softwarelandschaft, vor allem aber die organisatorische Struktur der IT-Organisation für den Wandel von Mercateo zu einer umfassenden B2B Transaktionsplattform aufzustellen. Zuvor hat er bei TNG in diversen Projekten viel über IT gelernt. Er hat an der TU München Informatik studiert und im Bereich Software Engineering verteilter Systeme für Augmented Reality promoviert.

Einerseits wird Software für Unternehmen immer wichtiger. Anderseits ist sie heute so günstig wie nie zuvor. Zudem wird sie durch das World Wide Web und Cloud Computing zunehmend in Form von Diensten statt als Produkt bereitgestellt. Die erfolgreiche Etablierung von Basistechnologien, Plattformen und zugehörigen Business-Ökosysteme spielt in Zusammenhang mit Software eine immer größere Rolle. Sowohl bei der Nutzung als auch bei der Entwicklung sind Entscheidungen in Bezug auf Software heutzutage wesentlich für den wirtschaftlichen Erfolg. Open Source Software und der Umgang mit ihr hat sich dabei als ein wirkungsvolles Mittel zur Umsetzung strategischer Ziele herausgestellt.

Steffen Evers ist seit 2012 für alle Fragen rund um Open-Source-Software wie Strategie, Community Management und Compliance Management bei der Bosch Software Innovations GmbH zuständig. Das Thema ist seit dem Jahr 2000 sein beruflicher Schwerpunkt. Er forschte, lehrte und promovierte zum Thema Open-Source-Entwicklung an der Technischen Universität Berlin und war danach für verschiedene Firmen in diesem Bereich tätig.

Industrie 4.0 – Einstieg in die digitale Produktwelt

Dr. Andreas Ritzenhoff - Geschäftsführer, Carus

Die Firma Seidel GmbH & Co. KG stellt seit über 180 Jahren mechanische Produkte für die internationale Kosmetikindustrie her. Aus dieser Firma heraus hat Herr Dr. Ritzenhoff 2014 die Firma Carus GmbH & Co. KG gegründet. Carus vertreibt LED-Lampen, die digitale Technologien enthalten. Bei der Herstellung zahlreicher Komponenten wird auf das lange und fundierte Know-how der Firma Seidel zurückgegriffen. Das digitale Know-how hat man sich intensiv erarbeitet. Die Herstellung erfolgt – anders als bei den Konkurrenzprodukten – vollautomatisiert und in Deutschland.

Dr. Andreas Ritzenhoff ist Inhaber und Geschäftsführer der Seidel GmbH & Co. KG sowie der Carus GmbH & Co. KG. Er hat Humanmedizin an den Universitäten Antwerpen, Brüssel, Heidelberg, Santiago de Chile studiert. Zwischen 1984 und 1986 war er Assistenzarzt innere Medizin, bei der Universitätsklinik Düsseldorf. Er ist Mitglied des Kuratoriums Universitätsbund der Philipps-Universität Marburg und Gründungsmitglied der Initiative Bio- und Nanotechnologie Marburg. Er erhielt 2014 den Deutschen Unternehmerpreis (Harvard Club of Germany) und 2016 die Dieselmedaille, den ältesten Innovationspreis Deutschlands. 

Programmiersprachen

JavaScript in 2016: Beyond Harmony (auf Englisch)

Brendan Eich - Präsident und CEO, Brave Software

Ich werde die neuesten Entwicklungen in JavaScript präsentieren, sowohl die vom "TC39" technischen Komitee der Ecma International, als auch die Browser-APIs häufig verknüpft mit JS und auch jetzt anwendbar auf der Server-Seite in verschiedenen "headless browsing"- und "server side rendering“-Systeme. JS ist so schnell und allgegenwärtig geworden: Es erzeugte eine neue Transport-Syntax, WebAssembly, die sich voraussichtlich in sein eigenes Protokoll für sicheren native-speed Web-Anwendungen weiterentwickelt. Deshalb werde ich ein Update über WebAssembly sowie JS geben. Ich werde mit ein paar lustige Spiele abschließen und dabei diese Innovationen auf den modernesten Versionen der heutigen Top-Browsern demonstrieren.

Brendan Eich ist der Mitbegründer und CEO von Brave Software, ein Start-up, dass die Online-Werbung-Ökosystem mit schnellerem und sichererem Browsing sowie Micropayment und bessere Anzeigen, die Nutzer und Verleger bessere Deals anbieten soll, transformieren will. Eich war vorher als CTO und nachher CEO der Mozilla Corporation tätig. Zuvor hatte er das Mozilla-Projekt und -Stiftung mitbegründet. Während seiner Zeit bei Mozilla, half Eich den preisgekrönten Web-Browser Firefox zu starten. Eich ist auch der Erfinder von JavaScript, die meistverbreitete Web-Programmiersprache.

Idris ist eine universale funktionale Programmiersprache mit voll abhängigen Typen, aufbauend auf State-of-the-Art-Techniken der Forschung der Programmiersprachen. Abhängige Typen ermöglichen, Typen mit einen beliebigen Wert zu belegen. Auf dieser Weise können erforderliche Eigenschaften eines Programms in dem Typ-System erfasst, und durch einen Type Checker verifiziert werden. Dazu gehören funktionelle Eigenschaften (d.h. ob das Programm die richtige Antwort liefert) und extra funktionellen Eigenschaften (d.h. ob das Programm unter spezifischen Ressourcenbeschränkungen ausgeführt wird). Idris soll Programmierern typbasierte Programmverifikationstechniken liefern, während sie effiziente Systemprogrammierung durch einen optimierenden Compiler und die Interaktion mit externen Bibliotheken unterstützt. In diesem Vortrag werde ich im Rahmen einer Reihe von Beispielen zeigen, wie abhängige Typen für die Überprüfung von realistischen und wichtigen Eigenschaften von Software verwendet werden können, von einfachen Eigenschaften wie Arraygrenzen zu komplexeren Eigenschaften der Kommunikations- und verteilten Systeme.

Dr. Edwin Brady ist Dozent für Informatik an der University of St. Andrews in Schottland, UK. Seine Forschungsinteressen umfassen Programmiersprachen-Design, insbesondere Typsysteme und domänenspezifischen Sprachen. Seit 2008 hat er die Programmiersprache Idris gestaltet und implementiert, eine funktionale Programmiersprache zum generischen Einsatz, mit abhängigen Typen, die er verwendet, um verifizierte domänenspezifische Sprachen zu implementieren. Wenn er nicht gerade das macht, dann ist er wahrscheinlich gerade beim Go-Spielen, Kreuzworträtseln oder steckt irgendwo in Großbritannien im Zug.

Rust ist eine Systemprogrammiersprache, die blitzschnell läuft, Segfaults verhindert und Thread-Sicherheit garantiert. Moderne Sprachfeatures wie Closures, Typinferenz, Pattern Matching, und Trait-based Generics werden gleichzeitig mit Low-Level-Features wie Zero-Cost-Abstractions, effizienter C-Bindung und einer minimalen Laufzeit unterstützt. Seit dem Release der stabilen Version 1.0 im Mai 2015 hat Rust verbreitet Wachstum und Einsatz gefunden sowie kontinuierliche Verbesserung bei der Sprache und den Bibliotheken erfahren. Dieser Vortrag wird die Grundlagen von Rust zeigen und wie diese genutzt werden, um die hochgesteckten Ziele der Sprache zu erreichen. Desweiteren wird ein Ausblick auf kommende Features gegeben.

Alex Crichton ist seit Ende 2013 Senior Research Engineer bei Mozilla. Als Mitglied des Rust-Kernteams, des Library-Teams und Leiter des Tools-Teams arbeitet er seit Ende 2012 an Rust. Er ist der Autor des aktuellen Moduls |std::sync::mpsc| in der Standardbibliothek und hat in der Vergangenheit die Runtimes der Standardbibliothek (die seitdem entfernt wurden) entworfen. Derzeit arbeitet Alex an Cargo, Rusts Paketmanager, der Standardbibliothek und fördert die Entwicklung von Bibliotheken in der Community.

Sensorik

Microelectromechanical Systems (auf Englisch)

Dr. Roland Helm - Senior Director, Infineon

MEMS-Sensoren in Konsumergeräten können in innenliegende (hauptsächlich Accelerometer, Gyroskope und Magnetometer), Umweltsensoren (Mikrophone, Druck-, Temperatur- und Feuchtigkeitsmesser sowie die aufkommenden Gasmesser) und optische Sensoren (Lichterkennung und sich etablierende Herzratenmessungen) kategorisiert werden. Die Hauptspieler in der kapitalintensiven MEMS-Industrie sind Hersteller von Semikonduktoren. Die Technologie basiert darauf, Mikrostrukturen in die Semikonduktoren zu ätzen und bewegliche Teile mit spezifischen mechanischen Eigenschaften zu definieren. Die Innovationsgeschwindigkeit ist am Rande der physischen Machbarkeit. Für Hauptanwendungen wie Ortserkennung oder Tonverarbeitung gibt es laufend kombinierte Verbesserungen von Software und Hardware, die die Transformation des Smartphones zu einem persönlichen Assistenten unterstützen.

Dr. Roland Helm kam 2003 zu Infineon, nachdem er für ein Technologie-Startup und eine Wirtschaftsberatung tätig war. Seit 2006 ist er verantwortlich für das Verbrauchersensorengeschäft, wo er das Geschäft für Micro-Electro-Mechanical Systems (MEMS) Mikrophone von technischen Machbarkeitsstudien bis zu einem signifikanten Marktanteilentwickelt hat. Dafür arbeitete er mit führenden Smartphonekunden zusammen und brachte so die performantesten MEMS und ASIC Designs voran und stellte die Massenproduktion sowie die Lieferkapazitäten sicher. Nun erweitert er das Mikrophongeschäft in ein Verbrauchersensoren MEMS Geschäft, inklusive optischen- und Drucksensoren. Seine Leidenschaft besteht darin, Kapazitäten neuer Technologien an die Bedürfnisse moderner Gesellschaften anzupassen. Roland hat einen Doktortitel von der Technischen Universität München, wo er auch Physik studierte.

Computer und Spiele

Modern Chess Preparation – The role of computers in professional chess

Gawain Jones - Schachgroßmeister

Seit Jahrhunderten sind Menschen an modernen schachspielenden Maschinen interessiert und, angefangen bei Turk bis hin zu Deep Blue, von dem Wettbewerb zwischen Mensch und Maschine fasziniert. Die Maschinen sind inzwischen sogar für die besten Spieler viel zu stark geworden, obwohl sie weiterhin sehr nützlich sein können. In diesem Vortrag wird die historische Entwicklung der Schach-Technologie dargestellt, wie diese die Art und Weise, wie gespielt wird, beeinflusst hat, wie Top-Spieler sich vorbereiten und zudem werden mögliche Gefahren im Wettkampfschach durch den Einsatz leistungsfähigerer Hardware beleuchtet.

Gawain Jones ist ein englischer Profischachspieler. Er wurde in Yorkshire geboren, aber er hat in Italien, Irland, Australien und Neuseeland gelebt und spricht anständig Italienisch. Er mag Reisen, Rugby und sämtliche Brettspiele. Er wurde ein Internationaler Meister mit 16 und ein Großmeister mit 19. Er hat drei Bücher über Schacheröffnungen geschrieben: Der Grand Prix Angriff, wie die Sizilianer zu schlagen, und der Drache (Bestandteil der Qualitätsschachgroßmeister Repertoire-Serie). Er ist ein ehemaliger Commonwealth- und Britischer Champion und hat England in vier Schacholympiaden vertreten.

Werkzeuge und Methoden

REST-Services - nur echt mit HATEOAS: Effizientes Bauen von REST-Schnittstellen in Java

Jörg Adler - Softwareentwickler, Mercateo und Dr. Andreas Würl - TNG

Beim Design von REST-Interfaces wird ein Constraint oft übersehen - HATEOAS. Dabei geht es darum, dass REST-Clients keine Annahmen über die möglichen Zustandsänderungen einer Ressource machen sollten, es sei denn, der REST-Server stellt genau dafür einen Hyperlink zur Verfügung. Wir stellen die Vorteile dieses Architekturparadigmas anhand einiger Beispiele vor - von der besseren Entkopplung von Client und Server bis zur einfacheren Modellierung von Berechtigungen einzelner Nutzer. Dabei präsentieren wir vorhandene Ansätze im Spring und Jersey-Framework. Außerdem stellen wir unser open-source Projekt rest.schemagen vor. Dabei wird klar, dass HATEOAS auch für den (Server-) Entwickler echte Vorteile bringt und der zusätzliche Aufwand verschwindend gering ist. Das Projekt findet man auf github und auf maven central.

Jörg Adler ist zurzeit bei der Mercateo AG als Softwareentwickler tätig. Aktuelle Schwerpunkte sind REST-Schnittstellen und interne Systeme.

Andreas arbeitet als Senior-Consultant bei TNG. Sein Schwerpunkt liegt auf agiler Softwareentwicklung und Projektmanagement mit Fokus auf nachhaltigem Design. Er arbeitet gern mit Java, Python, PHP und C++ und in seiner Freizeit wirkt er oft bei Open-Source-Projekten mit. Andreas ist ursprünglich Experimentalphysiker und studierte an der Universität Bayreuth und später Konstanz, wo er seinen Ph.D. erhielt.

Searching for the Needle in a Haystack? ELK can help

Dr. Andriy Samsonyuk - TNG

Vergeuden Sie Ihre Zeit nicht auf der Suche nach Fehlern, investieren Sie sie lieber in Korrekturen und Verbesserungen. Je größer die Anwendung ist, mit der wir es zu tun haben, desto mehr Feedback bekommen wir in Bezug auf die Log Statements. An einem gewissen Punkt werden die Entwickler praktisch immer mit Informationen überflutet und die Notwendigkeit für das richtige Tooling wird deutlich. Dieser - nur ein weiterer - Vortrag über Elasticsearch hat seinen Fokus auf dem sogenannten ELK (Elasticsearch, Logstash, Kibana) Stack, einem von elastic.co entwickelten Open-Source-Werkzeug mit dem alleinigen Zweck, die Menge der protokollierten Informationen, die Sie benötigen, zu verarbeiten, zu sammeln, zu speichern, zu visualisieren und zugänglich zu machen. Der ELK Stack ist einfach zu installieren und zu warten. Der Elasticsearch Cluster kann aufgrund seiner ausgezeichneten horizontale Skalierung entsprechend jeglicher vernünftiger Performance- und Redundanzanforderungen konfiguriert werden. Wenn Sie immer noch Ihre Log Files "greppen", möchten Sie vielleicht einen Blick auf diese Alternative werfen. Hinweis: technischer Vortrag für ELK-Anfänger und Ungläubige in Bezug auf Log-Monitoring.

Dr. Andriy Samsonyuk ist seit 2013 als Software Consultant bei der TNG Technology Consulting GmbH. Zuvor hat er Chemie studiert und an der TU München promoviert.

Agile Dokumentation

Gerhard Müller - TNG

Es gibt viele Vorurteile zu Dokumentation in agilen Softwareprojekten, vor allem deren Nicht-Existenz. Gerade bei agilen Projekten entsteht oft mehr und vor allem sinnvollere Dokumentation als in klassischen Projekten. Dieser Vortrag zeigt, was gute agile Dokumentation ist (nämlich mehr als „nur“ guter Text in Dokumenten: Videos, Wikis, Issue Management, interaktive API-Dokumentation & Co.), und warum sie wichtig ist. Er reflektiert Erfahrungen aus vielen Projekten insbesondere wie eine agile Dokumentation entsteht. Ziel ist es, die Wichtigkeit guter Dokumentation zu verstehen, Ideen im Bereich Dokumentation in der agilen Softwareentwicklung aufzugreifen sowie Erfahrungen aus der Praxis zu vermitteln.

Gerhard Müller hat Informatik an der TU München studiert und ist Mitgründer und Partner bei TNG Technology Consulting. Er beschäftigt sich bereits seit ca. 15 Jahren intensiv mit Softwareentwicklung im Enterprise-Umfeld. In dieser Zeit hat er immer wieder festgestellt, dass gute Software zwar Voraussetzung für den Projekt- bzw. Produkterfolg ist, aber alleine nicht ausreicht. Genau so wichtig und gleichzeitig oft herausfordernder ist es für Unternehmen, Märkte und Kunden nicht aus den Augen zu verlieren.

Abenteuer

The Sailrocket Story. Breaking Sailings "Sound Barrier" (auf Englisch)

Paul Larsen - Sailrocket

Angefangen bei seiner Kindheit im ländlichen Australien nimmt uns Paul Larsen mit auf eine Reise durch die Höhen und Tiefen seiner Jagd nach dem absoluten Geschwindigkeitsweltrekord im Segeln und seinem Versuch, die Horizonte des Segelns zu erweitern.