Überblick über Sprecher und Vorträge für den BTD8 am 12. Juni 2015

Hier geht's zur Programmübersicht.

Künstliche Intelligenz und Robotik

How do modern chess engines work? (auf Englisch)

Daylen Yang - University of California at Berkeley

Deep Blue war 1997 weltweit der beste Schachcomputer. Seitdem wurden moderne Schachengines erheblich weiterentwickelt und sind nun nicht mehr von menschlichen Großmeistern zu besiegen. Dieser Vortrag soll einen Überblick über das Funktionieren von Schachengines, Abdecksuche/-evaluation und interessante High-Level- und Low-Level- Optimierungen geben. Ferner wird das verteilte Test-Framework Fishtest, eine Methode zur Messung der Optimierungsstärke bei der Entwicklung von Schachengines, thematisiert.

Daylen Yang ist dem Stockfish Open-Source-Projekt im Jahr 2010 beigetreten. Er ist der Entwickler von Stockfisch für Mac App und hat in der Vergangenheit verschiedene Rollen im Projektteam übernommen. Zur Zeit studiert er Elektrotechnik und Informatik an der University of California, Berkeley, und macht diesen Sommer ein Praktikum bei Facebook.

Parallelism and selectivity in game tree search (auf Englisch)

Tord Romstad, stockfishchess.org

Seit den frühesten Tagen von Schachcomputern haben fast alle Wettbewerbsschachprogramme eine Variante des Alpha-Beta-Algorithmus verwendet. Der Alpha-Beta-Algorithmus ist einfach und elegant, liefert immer das gleiche Ergebnis als eine einfache Minimax-Suche und verdoppelt effektiv die erreichbare Suchtiefe für eine gegebene Menge an Denkzeit. Allerdings ist der Verzweigungsfaktor in Schach so hoch, dass eine Brute-Force-Suche selbst mit dem Alpha-Beta-Verfahren nicht sehr tief in den Spielbaum eindringen wird. Der Alpha-Beta-Algorithmus ist auch notorisch schwer zu parallelisieren. Dieser Vortrag erläutert, wie moderne Schachprogramme die Baumgröße viel weiter reduzieren als das, was nur mit dem Alpha-Beta-Verfahren möglich ist, und wie man die Suche effizient über mehrere CPU-Kerne verteilen kann.

Tord Romstad ist ein algebraischer Geodät aus Oslo, Norwegen, und einer der Hauptautoren der Open Source Schach-Engine Stockfish. Derzeit arbeitet er für das in Oslo ansässige Data-Science Startup Sannsyn und für Play Magnus AS, das Unternehmen hinter den offiziellen Magnus Carlsen Apps für iOS und Android. Diese App verspricht dem Benutzer, gegen den aktuellen Schachweltmeister in 19 verschiedenen Altersstufen zu spielen.

From Big Data to Big Knowledge

Dr. Martin Stumpe, Google

Maschinelles Lernen und Big Data gehören zu den größten Technologie-Trends der heutigen Zeit und neuronale Netze erleben ihre zweite Renaissance. Wieso der ganze Hype? Ist es gerechtfertigt? Und warum ausgerechnet jetzt? Dieser Vortrag wird einige Entwicklungen in diesem Bereich erörtern und einige Anwendungsbeispiele zeigen, wo Maschinen die menschliche Präzision erreicht haben.

Martin Stumpe ist ein Ingenieur bei Google mit Schwerpunkt auf maschinelles Lernen und Computer-Vision-Anwendungen. Vor seiner Tätigkeit bei Google arbeitete er bei NASA Ames Research Center in Mountain View in der Entwicklung von Signalverarbeitungsalgorithmen für die NASA-Kepler-Mission. Davor arbeitete er als Forscher an der Stanford University, wo er die Proteinfaltungsdynamik mit physikalischen Simulationen untersuchte. Außerdem entwickelte und veröffentlichte er eine Video-Tracking-Software (AnTracks), die in verschiedenen Bereichen - wie z.B. in der Mikrobiologie und in der Verhaltensökologie - eingesetzt wird. Martins akademischer Hintergrund ist die Physik. Er hat an den Universitäten Münster und Göttingen studiert. Dort und am Max-Planck-Institut für biophysikalische Chemie promovierte er zum Dr. rer. nat. in Physik.

Getting our brain to adopt a robotic body (auf Englisch)

Professor Dr. Gordon Cheng, Leiter des Instituts für kognitive Systeme an der Technischen Universität München

Es ist erstaunlich, wie es uns gelingt, Werkzeuge so einfach zu benutzen, von einem Schraubenzieher bis hin zur geschickten Verwendung von Essstäbchen, unser Gehirn benutzt diese Instrumente nahtlos für ziemlich komplexe Aufgaben. In diesem Vortrag werde ich Wege ansprechen, wie wir unser Gehirn austricksen können, sodass sogar komplexe Robotersysteme angenommen werden können.

Professor Gordon Cheng ist Inhaber des Lehrstuhls für Kognitive Systeme sowie Gründer und Direktor des Instituts für Kognitive Systeme, an der Technischen Universität München. Ehemals war er Leiter des Departments für Humanoide Robotik und Rechnerische Neurowissenschaft, ATR Computational Neurosciences Laboratories, Kyoto, Japan. Er war Gruppenleiter für das neu begonnene JST Internationale Kooperative Forschungsprojekt (ICORP), Computational Brain. Zudem wurde er zum Projektleiter / Forschungsexperten am Nationalen Institut für Informations- und Kommunikationstechnologie (NICT) Japan ernannt. Er ist außerdem in eine Reihe großer Projekte der Europäischen Union eingebunden (als Berater und als Associate Partner). Er hielt Forschungskolloquien des Exzellenz-Centers (COE) und der Wissenschafts- und Technologieagentur (STA), Japan. Beide Kolloquien wurden im Labor für Humanoide Interaktion, Abteilung Intelligente Systeme, am Elektrotechnischen Labor (ETL), Japan, durchgeführt. Am ETL hatte er eine bedeutende Funktion bei der Entwicklung eines komplett integrierten humanoiden Robotersystems. Er hat ausgedehnte Erfahrungen in der Industrie, sowohl in der Beratertätigkeit als auch der vertraglichen Entwicklung großer Softwaresysteme. Er war außerdem leitender Geschäftsführer der Firma G.T.I. Computing, einer von ihm gegründeten Firma, die sich auf Netzwerk- und Transport-Management-Systeme in Australien spezialisiert. Über den Zeitraum der letzten 10 Jahre hinweg ist Professor Cheng Miterfinder von ungefähr 18 Patenten und Autor von ungefähr 250 technischen Publikationen, Berichten, Leitartikeln und Buchkapiteln. Darüber hinaus hat er erfolgreich bewiesen, dass er zur Arbeit innerhalb und über eine Reihe von Forschungsbereichen hinweg in der Lage ist. Während seiner Zeit als Leiter des Departments für Humanoide Robotik und Rechnerische Neurowissenschaft betrieb Professor Cheng höchsteinflussreiche Forschung in der Neurowissenschaft, Kognitionswissenschaft und verwandten Gebieten, und war Mitautor von einer Vielzahl an Publikationen in diesen Bereichen.

Do statistical models understand the world? (auf Englisch)

Dr. Ian Goodfellow, Research Scientist bei Google

Algorithmen des maschinellen Lernens haben bei einer Vielzahl von Benchmark-Aufgaben das menschliche Leistungsniveau erreicht. Dies wirft die Frage auf, ob diese Algorithmen auch das menschliche "Verständnisniveau" dieser Aufgaben erreicht haben. Durch das Entwerfen von Inputs zur gezielten Verwirrung von Algorithmen des maschinellen Lernens zeigen wir, dass statistische Modelle, von der logistischen Regression bis zu tief faltenden Netzwerken, in vorsehbarer Weise versagen, wenn sie mit statistisch ungewöhnlichem Input konfrontiert werden. Mit der Korrektur dieser spezifischen Fehler können tiefe Modelle ein beispielloses Maß an Genauigkeit erzielen. Aber die philosophische Frage, was es heißt, eine Aufgabe zu verstehen und wie man eine Maschine baut, die das kann, bleibt offen.

Ian Goodfellow ist Research Scientist bei Google. Im Jahr 2014 promovierte er im maschinellen Lernen an der Université de Montréal. Seine Promotionsbetreuer waren Yoshua Bengio und Aaron Courville. Seine Studien wurden vom Google PhD Fellowship in Deep Learning gefördert. Während seiner Promotion schrieb er Pylearn2, die Open-Source Deep-Learning-Forschungsbibliothek, und führte eine Vielzahl von neuen Deep-Learning-Algorithmen ein. Zuvor erwarb er sowohl einen Bachelor- als auch einen Masterabschluss in Informatik an der Stanford University, wo er eines der ersten Mitglieder von Andrew Ng‘s Deep-Learning-Forschungsgruppe war.

Deep Learning

Professor Dr. Jürgen Schmidhuber, Kodirektor des Schweizer Forschungsinstituts für Künstliche Intelligenz IDSIA

Tiefe (auch rekurrente) künstliche neuronale Netze gewannen jüngst zahlreiche Wettbewerbe im Bereich Mustererkennung und maschinelles Lernen. Sie werden heutzutage massiv eingesetzt in Industrie und Wissenschaft. Anhand zahlreicher wichtiger Anwendungen liefert der Vortrag Einblicke in den aktuellen Stand der Technik. Zudem wird diskutiert, wie künstliche Intelligenz unsere Zivilisation grundlegend verändern wird.

Seit er etwa 15 Jahre alt war, bestand das wichtigste wissenschaftliche Ziel von Prof. Jürgen Schmidhuber, darin, durch selbstverbessernde Künstliche Intelligenz (KI) einen optimalen Wissenschaftler zu erschaffen, um dann in Rente zu gehen. Seit 1987 leistete er Pionierarbeit zur Selbstverbesserung allgemeiner Problemlöser, und seit 1991 zu "Deep Learning” mit Neuronalen Netzen (NNs). Die rekurrenten NN (RNN) seiner Forschungsgruppen am Schweizer KI Labor IDSIA (USI & SUPSI) und der TU München gewannen als erste RNN internationale Wettbewerbe. Sie revolutionierten Handschrifterkennung, Spracherkennung, maschinelle Übersetzung, automatische Bildbeschriftung und werden nun von Google, Microsoft, IBM, Baidu und vielen anderen Firmen eingesetzt. Zu den ersten 4 Mitgliedern von DeepMind (verkauft an Google für mehr als 600 Mio.) gehören 2 ehemaligen Doktoranden seines Labors. IDSIAs tiefe Lerner die Objekterkennungs- und Bildsegmentierungswettkämpfe gewannen. Sie erreichten die weltweit ersten übermenschlichen visuellen Klassifikationsergebnisse, und gewannen neun Wettstreite für maschinelles Lernen und Mustererkennung (kein anderes Team war so erfolgreich). Die ersten "Reinforcement Lerner”, die direkt aus hochdimensionalen sensorischen Eingaben lernten, stammen ebenfalls aus seiner Forschungsgruppe, welche auch den Bereich der mathematisch strengen universellen KI und der optimalen universellen Problemlöser etablierte.  Seine formale Theorie der Kreativität & Neugier & Spaß erklärt Kunst, Wissenschaft, Musik und Humor. Er verallgemeinerte auch die algorithmische Informationstheorie und die Vielweltentheorie der Physik, und erfand das Konzept der Kaum Komplexen Kunst, des Informationszeitalters extreme Form der Minimalkunst. Seit 2009 ist er Mitglied der Europäischen Akademie der Wissenschaften und der Künste. Er veröffentlichte 333 begutachtete Artikel, erhielt sieben Auszeichnungen für beste Publikationen / bestes Video und im Jahr 2013 den Helmholtz-Preis der Internationalen Gesellschaft für Neuronale Netze. 

Bildannotation unter Verwendung von Deep Learning und Fisher Vectors (auf Englisch)

Professor Dr. Lior Wolf  - Mitglied der Fakultät für Informatik an der Universität Tel Aviv

Es geht um die Präsentation eines Systems zur Lösung des heiligen Grals der Computer Vision: Das Matching von Bildern und Texten und die Bildbeschreibung durch automatisch generierte Texte. Unser System stützt sich auf die Kombination von Deep Learning-Tools für Bilder und Text - nämlich Convolutional Neural Networks, word2vec und Recurrent Neural Networks - mit einem klassischen Computer-Vision-Tool, dem Fisher Vector. Der Fisher Vector wurde modifiziert, um Hybrid-Distributionen zu unterstützen, die viel besser mit Textdaten umgehen können. Unsere Methode hat sich als äußerst erfolgreich erwiesen und übertrifft mit signifikantem Abstand alle zurzeit konkurrierenden Methoden. Wenn die Zeit es zulässt, werden noch weitere Deep-Learning-Projekte wie Gesichts- und Spracherkennung oder Videoanalyse dargestellt.

Prof. Lior Wolf ist Mitglied der Fakultät für Informatik an der Universität Tel Aviv. Zuvor war er Post-Doc-Mitarbeiter im Labor von Prof. Poggio am MIT. Er schloss sein Studium an der Hebräischen Universität in Jerusalem ab, wo er unter der Leitung von Prof. Shashua arbeitete. Lior Wolf wurden der 2008 Sackler Career Development Chair, die Colton Excellence Fellowship für neue Fakultät (2006-2008), der Max Shlumiuk Award für 2004 sowie die Rothschild-Fellowship für 2004 verliehen. Seine gemeinsame Arbeit mit Prof. Shashua erhielt auf der ECCV 2000 den Best Paper Award, und ihre Arbeit auf der ICCV 2001 die Marr Prize Auszeichnung. An ihn wurde ebenfalls der Best Paper Award des nach der ICCV 2009 stattfindenden Workshops eHeritage und des pre-CVPR2013 Workshops über Aktivitätserkennung vergeben. Schwerpunkte seiner Forschung sind die Computer-Vision und die Anwendungen des maschinellen Lernens, die Themen wie Gesichtserkennung, Dokumentenanalyse, digitale Paläographie und Video-Aktivitätserkennung umfassten.    

Semantic Fingerprinting: Democratising NLP (auf Englisch)

Francisco De Sousa Webber, cortical.io

Cortical.io‘s Semantic-Fingerprinting-Technologie stammt aus einem neuen, grundlegend anderen Ansatz des maschinellen Lernens: Es basiert auf einem Verarbeitungsmodell frei von Statistik, das Ähnlichkeit als Grundlage für Intelligenz nutzt. Die Cortical.io Retina konvertiert jede Art von Text in eine numerische Darstellung, einen Semantischen Fingerabdruck, der die Bedeutung explizit mit allen enthaltenen Sinnen und Zusammenhängen kodiert. Das System "versteht" das Verhältnis zweier Elemente, indem einfache deren Überlappung gemessen wird. Als Ergebnis ist es sehr schnell, zuverlässig und einfach zu implementieren - eine bahnbrechende Technologie, die die Intelligenz des Gehirns nutzt, um die natürliche Sprachverarbeitung von großen textuellen Data zu ermöglichen.

Francisco hat während des Medizinstudiums mit Spezialisierung in Genetik und Serologie an der Universität Wien das Interesse an der Informationstechnologie entwickelt. Er nahm an verschiedenen Forschungsprojekten am Wiener Serologischen Institut teil und war stark in der medizinischen Datenverarbeitung involviert. Er beteiligte sich an Projekten wie der Gründung und Organisation einer Dialyseregisterdatenbank und die Schaffung eines Patientendokumentationssystem für die Uni-Klinik in Österreich. Mitte der 1990er Jahre arbeitete er mit Konrad Becker bei der Gründung des Wiener Instituts für Neue Kulturtechnologien und Public Netbase mit - zu der Zeit Österreichs einziger kostenloser und öffentlich zugänglicher Internetserver - und schaffte damit eine internationale Kompetenz-Plattform für den kritischen Umgang mit Informations- und Kommunikationstechnologien. 2005 gründete Francisco Matrixware Information Services, ein Unternehmen, das die erste standardisierte Datenbank von Patenten unter dem Namen Alexandria entwickelte, wo er als CEO fungierte. Er initiierte auch die Gründung der Information Retrieval Facility im Jahr 2006, ein Not-for-Profit-Forschungsinstitut mit dem Ziel, die Kluft zwischen Wissenschaft und Industrie zu reduzieren.

Forschung

Vor mehr als dreißig Jahren, skizzierte Richard Feynman das visionäre Konzept eines Quantensimulators zur Durchführung von komplexen Physik-Berechnungen. Heutzutage wird sein Traum in vielen Laboren auf der ganzen Welt verwirklicht. All das wird durch den Einsatz komplexer Versuchs-Setups ermöglicht, die Atome auf Nanokelvin Temperaturen abkühlen können, bei denen sie fast in Ruhezustand versetzt werden. Die Atome können dann in Anordnungen von Millionen mikroskopischer Lichtfänger aufgefangen und manipuliert werden. Solche „Lichtkristalle“ erlauben einen neuartigen Einblick in die mikroskopische Welt der Quantenmaterialen und die Ingangsetzung der bisher genausten Atomuhren, was von grundlegender Bedeutung für die nächste Generation von Timing und Navigationsanwendungen ist. In meinem Vortrag werde ich eine Einführung geben, wie solche Quantensimulatoren bei den niedrigsten vom Menschen verursachten Temperaturen realisiert werden können, und einige ihrer Anwendungen präsentieren, die sich von der Festkörperphysik über die statistische Physik bis zur Hochenergiephysik mit Tabletop-Experimenten erstrecken.

Immanuel Bloch ist wissenschaftlicher Direktor am Max-Planck-Institut für Quantenoptik in Garching und Inhaber des Lehrstuhls für Experimentalphysik an der Ludwig-Maximilians-Universität (LMU) München. Seine wissenschaftliche Arbeit gehört zu den meist zitierten im Bereich der Quantenphysik und hat einen großen Beitrag dazu geleistet, ein neues interdisziplinäres Forschungsfeld an der Schnittstelle zwischen der Atomphysik, der Quantenoptik, der Quanteninformationstheorie und der Festkörperphysik zu eröffnen. Für seine Forschung wurde Immanuel Bloch mit mehreren nationalen und internationalen Preisen ausgezeichnet, darunter der Gottfried Wilhelm Leibniz-Preis der DFG, der Bundesverdienstorden Deutschlands, der Philip Morris Forschungspreis, der Senior Prize for Fundamental Aspects of Quantum Electronics and Optics der European Physical Society und der Körber-Preis für die Europäische Wissenschaft.

Dünnschichttransistoren auf der Basis organischer Halbleiter für flexible AMOLED-Displays

Hagen Klauk, Ph.D., Leiter der Max Planck Research Group Organic Electronics

Displays aus Organischen Leuchtdioden mit Aktivmatrix (Active-Matrix Organic Light-Emitting Diode - AMOLED) zählen zu den aufregendsten Entwicklungen in der Unterhaltungselektronik der letzten zehn Jahren. 250 Millionen AMOLED-Displays mit einer Gesamtfläche von 1,6 Quadratkilometern und einem Gesamtwert von 12 Milliarden Euro wurden im Jahr 2013 produziert, hauptsächlich für Mobilfunkgeräte und kleine Tablets. Zu den aktuellen Trends der AMOLED-Displays gehören höhere Auflösung (über HD), größere Bildschirme (55 Zoll Diagonale) und die Entwicklung flexibler Backplanes für aufrollbare oder faltbare Displays. Letztere wird von einer Technologie profitieren, die es ermöglicht, Dünnschichttransistoren (Thin-Film Transitors - TFTs) zur Steuerung von einzelnen Display-Pixeln bei Temperaturen herzustellen, die kompatibel mit Polymersubstraten sind, d.h. bei Temperaturen unter 150 °C. Eine Möglichkeit sind TFTs aus konjugierten organischen Halbleitern.

Hagen Klauk studierte bis 1995 Elektrotechnik an der Technischen Universität Chemnitz und promovierte anschließend bis 1999 in Elektrotechnik an der Pennsylvania State University, USA. Zwischen 1999 und 2000 war er Postdoktorand der Forschungsgruppe von Prof. Thomas N. Jackson an der Pennsylvania State University. Im Jahr 2000 trat er der Polymerelektronik Gruppe von Infineon Technologies in Erlangen bei. Seit 2005 ist er Leiter der Organischen Elektronik Gruppe am Max-Planck-Institut für Festkörperforschung in Stuttgart.Softwareentwicklung ins Zentrum zu rücken. 

Social content & model management using SocioCortex (auf Englisch)

Professor Dr. Florian Matthes, Leiter des Lehrstuhls Software Engineering for Business Information Systems an der Technischen Universität München

In diesem Vortrag berichten wir über die neuesten Ergebnisse unserer Social-Software-Engineering-Forschung an der TU München. SocioCortex ist eine web-basierte Plattform, die eine neuartige Mischung aus Inhalts-, Modell-Management-Konzepten sowie Dienstleistungen für die Problemlösungsprozesse in Organisationen bietet. Diese Prozesse beziehen Stakeholder mit unterschiedlichen Interessen und Hintergründen ein, die ihre bevorzugten Inhaltsrepräsentationen (Tabellen, Hypertexte, Bilder, Zeichnungen, Karten, 3D-Modelle, Matrizen, mathematische Formeln) verwenden wollen, die verschiedene Inhaltsquellen und -kanäle in Anspruch nehmen. Anhand von Beispielen aus Industrieprojekten zeigen wir, wie SocioCortex die Entstehung von Datenmodellen, Zugriffssteuerungsmethoden sowie Prozess- und UI-Modellen ermöglicht, die von den tatsächlichen Problemlösungsprozessen geprägt sind, welche auf der Plattform durchgeführt werden.

Florian Matthes ist Inhaber des Lehrstuhls für Software Engineering betrieblicher Informationssysteme an der Technischen Universität München. Der aktuelle Schwerpunkt seiner Forschung liegt auf dem Management von Unternehmensarchitekturen, der modellgetriebenen Entwicklung von Webanwendungen und Architekturen für Social Software. Frühere Stationen seiner akademischen Laufbahn waren die J.W.-Goethe-Universität Frankfurt (Diplom 1988), die Universität Hamburg (Promotion 1992), das Digital Equipment Systems Research Center (heute HP SRC Classic) in Palo Alto (Researcher 1992-1993) und die TU Hamburg-Harburg (Professur 1997-2002). Er ist Leiter der Arbeitsgruppe für Softwarearchitektur der Gesellschaft für Informatik, Beiratsmitglied der Ernst Denert-Stiftung für Software Engineering und Organisator mehrerer Fachveranstaltungen. Er ist außerdem Mitgründer und Vorstandsvorsitzender von CoreMedia (1996) und infoAsset (1999), Mitgründer weiterer kleinen universitären Software- und Service-Spin-offs und wissenschaftlicher Berater von UnternehmerTUM, das Zentrum für Innovation und Gründungen der TU München.

IT-Sicherheit

Email-Verschlüsselung mit enigmail - Herausforderungen und Bemerkenswertes zum Schutz der Privatsphäre

Nicolai Josuttis, Open Source-Entwickler

Seit vielen Jahren ist enigmail eines der Standard-Tools für Email-Verschlüsselung mit Mozilla Thunderbird. In der Post-Snowden-Zeit haben sich dabei die Relevanz und der Fokus von enigmail komplett verschoben. Ging es bisher eher um ein Tool für Techies, steht jetzt die Umsetzung des Grundrechts auf Privatsphäre im Vordergrund. Damit werden zum einen die Usability und zum anderen die Kompatibilität mit anderen Email-Tools zum entscheidenden Merkmal. Dieser Talk erläutert den aktuellen Stand dieser Entwicklung und gibt einige Einblicke in die Tiefe von Open-Source-Entwicklung im Zeitalter der Massenüberwachung.

Nicolai Josuttis ist seit vielen Jahren bekannt als Autor, Sprecher und unabhängiger Berater für C++, SOA und das technische Management von großen Projekten. Seit Anfang 2014 ist er Contributor von enigmail, dem Email-Verschlüsselungs-Add-On von Mozilla Thunderbird.

Lade mir die Datei doch auf diesen USB-Stick...

Die USBösewichte, TNG

Im Sommer/Herbst des letzten Jahres waren BadUSB Geräte kurzfristig ein großer Sicherheits-Aufreger (siehe bspw. BadUSB: Wenn USB-Geräte böse werden | heise Security). Verantwortlich dafür sind nicht nur die fehlenden Sicherheitsmechanismen des USB Protokolls, sondern auch die Sorglosigkeit oder vielmehr Neugierde der Anwender. Vielleicht ist auf dem gefunden USB Stick etwas Interessantes zu finden? Ein Geschäftsbericht, oder Bilder der attraktiven Nachbarin? Mithilfe von Mikrocontroller Entwicklungsplatinen und einem passenden USB-Stack dazu kann jeder halbwegs versierte Entwickler USB Geräte programmieren, die nahezu beliebig ihr Verhalten verändern können: Tastatur, Maus, Drucker, Datenträger etc. Bereits mit einem frei programmierbaren „Keyboard“, das noch dazu seine eigenen Pläne verfolgt, lässt sich eine Menge Unfug auf einem Opferrechner anstellen. Wir demonstrieren bspw. einen Angriff auf einen Standard Windows 7 PC, auf dem durch ein präpariertes Gerät administrative Rechte erlangt, gezielt Ausnahmen in der Firewall erstellt und eine Anmeldekonsole erzeugt und gestartet wird. Über die Konsole zeigen wir im Anschluss den Inhalt der Festplatte, den man in der Realität auch ausspionieren könnte. Online finden sich mittlerweile Sammlungen von fertigen Skripten für verschiedene Entwicklungsplatinen, mit denen amüsante Gags aber auch echte Angriffe umsetzbar sind. Prinzipiell ist jeder Rechner und jedes Betriebssystem angreifbar. Das erklärte Ziel dieses Vortrags ist es, neben einer sehr schlanken Darstellung der technischen Grundlagen, verschiedene Demonstrationen an Opfer-Systemen mit präparierten Geräten durchzuführen, um ein Bewusstsein für die Risiken eines allzu sorglosen Umgangs mit (fremden) USB Geräten zu schaffen.

Cloud security with LibVMI Virtual Machine Inspection (auf Englisch)

Tamás Lengyel, Senior Security Researcher bei Novetta, und Thomas Kittel, Promotionsstudent am Lehrstuhl für IT-Sicherheit an der Technischen Universität München

Neue Methoden und Ansätze zur Sicherung von Cloud-Umgebungen werden durch den weitverbreiteten Einsatz auf Seiten des Business-Sektors zunehmend kritischer. Ein Cloud-System stützt sich inhärent auf Hardware-Virtualisierung, um die gemeinsame Nutzung von Hardware-Ressourcen zu ermöglichen. Trotz der Tatsache, dass die Virtualisierung selbst nicht von Natur aus unsicher ist, sind fast zwei Drittel aller virtuellen Systeme weniger sicher als die physikalischen Systeme, die sie ersetzen. Diese merkwürdige Situation entsteht in erster Linie, weil traditionelle Host-Sicherheitsstrategien nicht gut in virtuellen Umgebungen integriert sind: als Beispiel sind typische Antivirus-Scans eine kritische Komponente der geschichteten defense-in-depth, aber sie erschöpfen schnell die verfügbaren CPUs und den Speicherplatz, wenn sie eine große Anzahl virtueller Maschinen sichern müssen. Virtualisierung bietet jedoch auch eine einmalige Gelegenheit, von außen in ein laufendes Betriebssystem zu blicken, auch als „Introspektion“ bekannt. Es ist möglich, Speicher, CPUs, Prozesse und Kernel von einer laufenden virtuellen Maschine von einem sicheren Aussichtspunkt zu beobachten. Noch interessanter ist die damit zusammenhängende Möglichkeit, das Verhalten aller dieser Komponenten zu ändern, um die Sicherung virtueller Systeme zu unterstützen. In den letzten Jahren hat unser Team an der Umsetzung dieser Funktionen für den Open-Source-Xen-Hypervisor durch die LibVMI-Bibliothek gearbeitet. Unsere Arbeit ermöglicht es Drittanbietern von Sicherheitstools, von den Vorteilen des zusätzlichen Schutzes durch den Hypervisor zu profitieren, sowohl auf x86- und ARM-Systemen. Während diese Merkmale eine signifikante Verbesserung der Cloud-Sicherheits-Tools bedeuten, ist die aktive „Introspektion“ ein zweischneidiges Schwert, weil es das implizite Vertrauen betont, das in den Cloud-Anbieter gesetzt wird.

Tamás arbeitet als Senior Security Researcher bei Novetta und war davor als Sicherheitsexperte am Lehrstuhl für IT-Sicherheit der TU München tätig. Tama‘s Schwerpunkt liegt auf der Virtualisierungssicherheit für Cloud und mobile Geräte. Derzeit ist er in der Endphase seiner Doktorarbeit zum Thema Malware-Sammlung und -analyse über Hardwarevirtualisierung an der Universität von Connecticut. Er ist ein begeisterter Open-Source-Entwickler, der an Projekten wie dem Xen-Hypervisor-Projekt, der LibVMI und dem Linux-Kernel beteiligt ist.

Thomas promoviert am Lehrstuhl für IT-Sicherheit an der Technischen Universität München. Seine Hauptinteressen liegen im Bereich der Virtual Machine Introspection und der VMI-basierten Betriebssystemsicherheit.

Open Source

Realtime, Interactive Big Data with Couchbase 4.0 (auf Englisch)

Tom Green, Solution Architect bei Couchbase

4.0 ist die neue Version der NoSQL-Dokumentendatenbank von Couchbase. Dies ist ein wichtiger Fortschritt bei dem Datenmanagement für missionskritische Echtzeit interaktive Anwendungen. Dieser Vortrag wird sowohl einen Überblick über die Anwendungsfälle von NoSQL und einen Einblick in die technische Architektur einer NoSQL Cluster-Datenbank geben, als auch die neuen Datenzugriffsfunktionen der SQL-Abfragesprache für Dokumente vorstellen.

Tom Green arbeitet als Solution Architect bei Couchbase, Anbieter von hochleistungsfähigen NoSQL-Technologien für missionskritische Systeme. Tom arbeitet eng mit den Kunden an dem Aufbau von Prototypen, dem Proof of Concept, der Datenmodellierung und dem Performance-Tuning zusammen. Vor seinem Eintritt bei Couchbase arbeitete Tom bei Intel im Microprocessor Research Lab und bei IBM in der Entwicklung von Systemspeichern.

Open-Source-Software ist kostenlos, doch um dies so zu erhalten und dieses Modell weiterhin funktionieren zu lassen, äußern Open-Source-Lizenzen auch Auflagen für Nutzer oder Personen, die sie weitergeben. Heutzutage liegt die Anzahl an Open-Source-Lizenzen bei mehreren Hundert und in den meisten Fällen wird ein Open-Source-Paket nicht durch eine einzelne Lizenz sondern mehrere Lizenzen abgedeckt. Deshalb existieren viele verschiedene Auflagen und einige davon könnten gelten, wenn ein Teil der Open-Source-Software verwendet wird. Für die kommerzielle Nutzung ist es unumgänglich, Lizenzbedingungen festzulegen – eine Art Clearing-Aufgabe. Software-Werkzeuge unterstützen diese Festsetzung. Eine Lösung ist das Open-Source-Projekt FOSSology. In der Präsentation werden wir den Hauptanwendungsfall erklären, warum man FOSSology nutzen sollte und wie neueste Eigenschaften das Clearing im Hinblick auf Effizienz und Effektivität verbessern.

Bei Siemens Corporate Technology arbeitet Michael als Projektleiter, Softwareentwickler, Trainer und Berater für verteilte Systeme, Serveranwendungen und deren Entwicklung mit Open-Source-Software. Er hat mehr als zwölf Jahre Erfahrung in der professionellen Softwareentwicklung. Er bevorzugt Java gegenüber C#, Xcode gegenüber Eclipse und mag Macs seit 27 Jahren. Michael erhielt die Grade Dipl-Ing. und Dr.-Ing., beide von der TU Berlin, und ist zertifizierter Softwareentwickler.

Andreas arbeitet als Senior-Consultant bei TNG. Sein Schwerpunkt liegt auf agiler Softwareentwicklung und Projektmanagement mit Fokus auf nachhaltigem Design. Er arbeitet gern mit Java, Python, PHP und C++ und in seiner Freizeit wirkt er oft bei Open-Source-Projekten mit. Andreas ist ursprünglich Experimentalphysiker und studierte an der Universität Bayreuth und später Konstanz, wo er seinen Ph.D. erhielt.

Double Impact - Elasticsearch schneller & günstiger als ein kommerzieller Produktindex

Robert Pintarelli, Principal Consultant bei TNG

Neulich, nach einem Release (so, oder zumindest so ähnlich):

Chef: "Und, was gibt es Neues?"
Team: "Alles beim Alten, außer..."
Chef: "Was?!? Und was habt ihr die letzten Wochen gemacht!"
Team: "... die Seite ist jetzt viel schneller, das Befüllen des Produktindex dauert nur noch Sekunden und die Suche findet endlich auch Teilworte..."
Chef: "Aber wie geht das, wir waren doch die ganze Zeit online, oder?!?"
Team: "Natürlich!"

Dass sich die Open Source "full-text search and analytics engine" Elasticsearch nicht vor der kommerziellen Konkurrenz zu verstecken braucht, sondern ihr in einigen Bereichen sogar überlegen ist - und das nicht nur im Preis -, das zeigt das Beispiel eines hybris-basierten Webshops, der von einem kommerziellen, spezialisierten Produktindex auf Elasticsearch umgestellt wurde. Dieser Vortrag beschreibt, wie es überhaupt dazu kam, warum Elasticsearch ausgewählt wurde und welche Schritte für das unterbrechungsfreie Umschalten notwendig waren.

"Einfach gute Software liefern - und das ab dem ersten Deployment", das ist das Ziel von Robert Pintarelli, wenn er für Kunden neue Funktionalität entwickelt. Seit fast acht Jahren hilft Robert den Kunden von TNG dabei, Softwarelösungen zu schaffen, die funktionieren. Bei seinem aktuellen Projekt - einem online Fashion-Shop auf Basis von hybris - kümmert er sich darum, dass die mittlerweile etwas in Jahre gekommene Software fit für die internationalisierte Zukunft wird.

OpenStreetMap, die Geodatenbank von Straßenerfassung bis hin zu 3D-Modellen

Thomas Skowron, Open Source-Entwickler

Zunehmend entwickelt sich OpenStreetMap zum größten Lieferanten von Geodaten für Anwendungen aller Art. Die Daten, die von tausenden Freiwilligen jeden Tag in die Datenbank eingepflegt werden, sind keine nur statisch vorgefertigte Karte, sondern ein Datenschatz, der fast ohne Nutzungseinschränkungen jedem zur Verfügung steht und neue Möglichkeiten schafft, unsere Welt besser zu verstehen. OpenStreetMap ist jedoch nicht nur eine Datenbank, sondern ein ganzes Ökosystem aus Menschen, Software und Unternehmen, die Werkzeuge zur Verarbeitung, Verbesserung und Visualisierung des Datenbestandes liefern und weiterentwickeln. Die Kartographierung geht über das einfache Aufzeichnen von Straßen hinaus, es werden Geschäfte, Hausnummern, Leerungszeiten, ÖPNV-Verbindungen, Fußwege und vieles mehr erfasst, um dann der Allgemeinheit zur Verfügung gestellt zu werden. Fehler gibt es in jeder Datenbank, doch in OpenStreetMap kann sie jeder - auch man selbst - beheben. Der Talk soll einen Einblick in elf Jahre Projektgeschichte und den aktuellen Stand geben, sowie einige Einstiegspunkte liefern, wie man selbst dazu beitragen kann.

Thomas Skowron ist Softwareentwickler von Location Based Services und geospatialen Anwendungen, lebt in Dresden und engagiert sich in Projekten wie Wikimedia Commons sowie OpenStreetMap. In seiner Freizeit setzt er sich für die Verfügbarkeit von offenen Daten ein und produziert den Podcast "Mikrowelle" zu den Themen Technik und Geodaten. Als Programmierer hat er Software für Ingenieure, Webseiten, interaktive eBooks und Kartenanwendungen konzipiert und entwickelt und arbeitet heute an serverseitiger Software mit, die Millionen Nutzer erreicht.

Methodik

Behavior-Driven Development in Plain Java

Dr. Jan Schäfer, TNG

Obwohl Behavior-Driven Development schon seit über 10 Jahren existiert, hat die Methodik in der Java-Welt bisher noch keinen besonders großen Anklang gefunden. Ein Grund dafür sind die existierenden BDD-Tools für Java, die für Entwickler umständlich zu benutzen sind und einen hohen Wartungsaufwand verursachen. Der Vortragende will dies mit JGiven ändern und Java-Entwicklern ein Framework an die Hand geben, das sie gerne benutzen und gleichzeitig die Fachabteilung mit ansprechenden Reports zufriedenstellt. JGiven-Szenarien werden in der gängigen Given-When-Then-Form mit einer embedded Java-DSL geschrieben. Dadurch können alle IDE-Features, wie Autovervollständigung und Refactoring-Werkzeuge von Entwicklern genutzt werden. Die resultierenden Szenarien sind zwar für sich schon sehr gut lesbar, JGiven kann aber zusätzlich noch Reports in verschiedenen Formaten generieren, die für die Zusammenarbeit mit Domain-Experten verwendet werden können. Durch ein modulares Konzept lassen sich neue Szenarien leicht aus Teilen anderer Szenarien zusammensetzen. Dies beschleunigt die Erstellung von neuen Szenarien und vermeidet Testcode-Duplizierung. Da weder Groovy noch Scala benötigt werden und JGiven kompatibel zu JUnit und TestNG ist, kann JGiven sofort in Java-Projekten eingesetzt werden und leicht in bestehende Test-Infrastrukturen integriert werden. In dem Vortrag wird der Vortragende eine Einführung in JGiven geben und anhand einer kurzen Live-Coding-Session zeigen wie schnell und einfach BDD-Szenarien in JGiven geschrieben werden können.

Dr. Jan Schäfer ist Senior-Consultant bei der TNG Technology Consulting GmbH und entwickelt dort seit 4 Jahren Java-Enterprise Anwendungen. Er ist promovierter Informatiker und seit über 15 Jahren in der Java-Welt zu Hause. Vor kurzem entdeckte er seine Leidenschaft für Behavior-Driven Development und veröffentlichte mit JGiven ein neues BDD-Framework für Java.

How to prove large software projects correct (auf Englisch)

Gabriel Gonzalez, Entwickler bei Twitter

Moderne Software stützt sich auf Tests zur Vermeidung von Programmfehlern, anstatt den Code als korrekt zu beweisen, da traditionelle formale Methoden untragbar kostspielig sind. Dieser Vortrag veranschaulicht eine praxisnähere Herangehensweise an formale Methoden, welche Equational Reasoning in Haskell mit grundlegender Kategorientheorie kombiniert, um so kostengünstig Eigenschaften auf höchster Ebene zu verifizieren.

Gabriel Gonzalez ist Softwareingenieur bei Twitter; tagsüber ist er Scala-Programmierer und nachts Haskell-Programmierer. Primär konzentriert er sich auf API-Design und Equational Reasoning, das er auch in seinem Blog auf haskellforall.com beschreibt.

Twelve speedy tricks for answering NP-complete problems (auf Englisch)

Dr. Antonius Weinzierl, Knowledge-based Systems Group an der Technischen Universität Wien

NP-vollständige Probleme treten häufig im Kern wichtiger Anwendungsbereiche wie Logistik, Zeitplanerstellung oder Erfüllbarkeitsüberprüfung auf. Bis heute ist kein schneller und korrekter Algorithmus für irgendein NP-vollständiges Problem bekannt: Im schlimmsten Fall erfordern sie alle exponentielle Zeit. Wenn eine Erfüllbarkeitsüberprüfung mit 3 Variablen 1 Sekunde dauert, bedeutet exponentielle Zeit also, dass eine Prüfung mit 13 Variablen 1.024 Sekunden und mit 35 Variablen 4 Milliarden Sekunden oder 126 Jahre erfordern würde. Trotzdem behandeln moderne Erfüllbarkeitsprüfer 500.000 Variablen in weniger als 10 Minuten. Dieser Vortrag zeigt einige der wichtigsten Techniken, die solche Leistungen ermöglichen.

Antonius Weinzierl ist ein Forscher an der Technischen Universität Wien (TU Wien), wo er 2014 promovierte. Sein aktueller Forschungsschwerpunkt ist die Logikprogrammierung, in der die Techniken der Erfüllbarkeitsüberprüfung intensiv angewandt werden. Im Jahr 2009 begann er seine Arbeit an der TU Wien mit einer Untersuchung über Inkonsistenzmanagement für Wissensaustauschsysteme. Im Jahr 2009 erhielt er sein Diplom in Informatik von der LMU München.

Neue Programmierkonzepte und Werkzeuge

Pony - A new, race-free, safe & fast actor programming language (auf Englisch)

Sebastian Blessing und Sylvan Clebsch, CEO und CTO bei causality.io

Nebenläufigkeit ist allgegenwärtig. Ihr Smartphone ist ein multi-­core System, ihre Workstation ein many-core System und ihr Rechenzentrum ist ein Supercomputer. Für die Softwareindustrie ist es daher unabdingbar Applikationen zu entwickeln, die mit zusätzlicher oder stärkerer Hardware skalieren. Zusätzlich muss garantiert werden, dass die Software frei von Dataraces oder Deadlocks ist. Dazu muss die Programmierung heutiger Computersysteme präzise und einfach möglich sein. Pony ist eine neue, quelloffene Programmiersprache mit dem Ziel genau diese Art der Programmierung zu ermöglichen. Sie basiert auf dem Actormodell (wie z.B. Erlang), ist objektorientiert, stellt zahlreiche funktionale Features zu Verfügung (wie z.B. Scala) und wird in nativen Maschinencode übersetzt (wie z.B. C/C++). Kernstück ist ein innovatives Typsystem, welches garantiert, dass ihr Programm frei von Dataraces ist, keine Deadlocks existieren und keine Nullzeiger oder andere Laufzeitausnahmen das Programm zum Absturz bringen können.

Sebastian Blessing absolvierte seinen Master of Science am Imperial College und erweiterte die Pony-Laufzeitumgebung für die Unterstützung verteilter Computersysteme. Er arbeitete an high performance Analysesystemen zur Beschleunigung und Verbesserung der Krebsforschung und ERP-­Systemen bei SAP und IBM. Sebastian ist derzeit CEO bei Causality.

In den 90er Jahren begann Sylvan Clebsch seine Karriere als Unternehmer. Er arbeitete unter anderem an eingebetteten Betriebssystemen, Sicherheitssystemen, VOIP, Physiksimulationen und Grafikengines, bevor er als IT Direktor zu einer großen Investmentbank wechselte. Sylvan ist derzeit CTO bei Causality, die Firma die Pony entwickelt.

Attack of the Buzzwords: Deploying Microservices with Docker (auf Englisch)

Eric Weikl, Principal Consultant, TNG

Microservices werden zunehmend als das Allheilmittel der Architektur gefeiert. Allerdings sind viele Organisationen völlig unvorbereitet für die technischen, betrieblichen und organisatorischen Konsequenzen dieses Ansatzes. Bereitstellen und Betreiben von microservice-basierten Systemen stellen neue Herausforderungen für die DevOps-Umgebung dar. Einige dieser Herausforderungen können durch die jüngste Container-Bewegungen gelindert werden (aber natürlich nicht ohne dabei neue zu erzeugen). In diesem Vortrag werden wir einen Blick auf die Verwendung von Docker für die Bereitstellung von Microservice-Architekturen sowie auf die verfügbaren (oder fehlenden) Alternativen im Rahmen des aktuellen Ökosystems werfen.

Eric Weikl entwickelt leidenschaftlich seit über 10 Jahren Software bei TNG. Er unterstützt Kunden mit der Entwicklung, Integration und Implementierung von unternehmenskritischen Systemen. Sein Lieblingsort ist, wo die platonischen Ideale von der IT-Programmierung und die schmutzige Wirklichkeit in der IT kollidieren.

State of the art in recommendation systems (auf Englisch)

Kjetil Hustveit und Simen Gan Schweder, sannsyn.com

Sannsyn ist ein kleines norwegisches Startup, das eine Plattform für Empfehlungen entwickelt. Nachdem wir unseren eigenen Werkzeugkastens von Grund auf neu entwickelt haben, stellen wir fest, dass es mehrere Herausforderungen gibt, die unsere Kunden gelöst haben möchten und für die wir ganz neue Sätze von Algorithmen entwickeln müssen. Das Sammeln und Verarbeiten vieler Daten über Personen wirft auch wichtige Fragen im Hinblick auf die Privatsphäre auf, die wir aus Verpflichtung gegenüber sowohl Recht als auch Ethik lösen müssen.

Kjetil Hustveit ist Software-Ingenieur bei und Mitbegründer von Sannsyn AS. Er hat die letzten 15 Jahre sowohl als Angestellter bei verschiedenen Unternehmen als auch als unabhängiger Berater Software entwickelt. Er hat an Projekten, die von Web-Applikationen und App-Entwicklung bis hin zur Entwicklung von Geräten zur Analyse von digitalen TV-Netzwerk-Streams reichten, gearbeitet. Jetzt ist er am glücklichsten, wenn er loslassen und neue Ideen zaubern kann.

Simen Gan Schweder (1970) hat einen Master in Statistik mit Schwerpunkt auf Datenmodellierung und Empfehlungssysteme. Er hat als Hochschullehrer zu Themen wie Algorithmen, Datenstrukturen und Produktentwicklung gearbeitet. Zudem weist er eine lange Geschichte als Software-Ingenieur in Branchen wie Druck und Web-Shops auf. Er schrieb das inzwischen verstorbene Filmempfehlungssystem eSmak in den neunziger Jahren, das von dem norwegischen Film-Distributor Oslo Kinomatografer verwendet wurden.

The long journey of the Sea Lion (auf Englisch)

Anastasia Kazakova, Product Marketing Manager für CLion, JetBrains

Bei JetBrains haben wir über ein Jahrzehnt damit verbracht, alle Arten von Entwicklungswerkzeugen zu machen. Wir haben mit sehr vielen Programmiersprachen gearbeitet (Java, Python, Ruby, C#, JavaScript, PHP, etc.), und sogar unsere eigene Sprache geschrieben (Kotlin). Jedoch wurde überraschenderweise C++ lange Zeit nicht eingesetzt. Doch das Jahr 2015 sollte letztlich mit der Markteinführung zweier C++-Produkte alles ändern: ReSharper C++ (ein Plugin für Visual Studio) und CLion (eine Cross-Plattform-C/C++ IDE). In diesem Vortrag werde ich die lange Geschichte von JetBrains bis hin zu C++-Domänen erzählen, die tatsächlich mit AppCode begonnen hat, unserer IDE für iOS/OS X-Entwicklung. Zudem werde ich von einigen technischen Schwierigkeiten und Bedenken berichten, auf die wir unterwegs gestoßen sind, vor allem in Bezug auf C++-Parser, Build Systemen und Compiler-Toolchains. Sie werden auch davon erfahren, wie das CLion-Produkt geboren wurde, welche Pläne wir für die Zukunft haben und warum wir zweimal (oder sogar dreimal) C++-Produkte entwickelt haben, zusammen mit einer lustigen Geschichte über die Namensfindung von „CLion“.

Als C/C++ Fan widmet sich Anastasia Kazakova (@ anastasiak2512) sich seit 8 Jahren der Schaffung von *nix-basierten Echtzeit-Systemen und bringt sie in Produktion. Sie besitzt Leidenschaften für Netzwerkalgorithmen sowie Embedded Programmierung und glaubt an gutes Tooling. Mit all ihrer Liebe und Zuneigung für C ++ trat sie dem JetBrains‘s Team bei, wo sie jetzt als Produkt-Marketing-Managerin für CLion und AppCode arbeitet.

Spotlets - the HTML mini-apps that make up the Spotify desktop client (auf Englisch)

Mattias Petter Johansson, Webentwickler bei Spotify

Die Spotify-Desktop-App besteht aus einer Vielzahl kleiner, eigenständiger Webapps, den sogenannten Spotlets. In diesem Vortrag werde ich Ihnen erzählen, wie sie uns erlauben, den Besitz zwischen Teams zu teilen und wie sie uns erlauben, per Fernsteuerung live Teile der App in den laufenden Anwendungen von Millionen von Nutzern zu ersetzen. Ich werde Ihnen außerdem die Geschichte hinter der Entstehung der Spotlets erzählen, wie sie sich entwickelten und einige der überraschenden Effekte, die sie auf uns hatten.

Mattias Petter Johansson (@mpjme) ist JavaScript-Entwickler an einer der kompliziertesten HTML5-Applikationen der Welt; Die Spotify-Desktopanwendung. Vor Spotify arbeitete er an webbasierten Videobearbeitungs-Applikationen und erstellte Kampagnenseiten für Absolut Vodka. Er löst den Rubiks-Würfel in unter 2 Minuten, hat in seinem ganzen Leben jedoch noch keine einzige richtige Zeitschätzung abgegeben.

Anonymous records in Haskell (auf Englisch)

Nikita Volkov - Software Engineer bei Sannsyn AS

Die Unzulänglichkeiten des Record-Systems in Haskell gehören zu den ältesten und umstrittensten Problemen der Sprache. Die Community ist sich seit langem einig, dass der aktuelle Zustand unbefriedigend ist. Dennoch erzeugt jeder Lösungsvorschlag endlose Debatten bis zum heutigen Tag. Sie sind schon lange der Grund dafür, dass im Endeffekt nichts wirklich implementiert wird, obwohl seit mindestens 1999 regelmäßig konkrete Vorschläge vorliegen. Zum Glück ermöglicht es die jünste Entwicklung im GHC, die Records als Bibliothek umzusetzen. In diesem Vortrag geht's um eine solche Bibliothek, die Ideen dahinter und deren praktische Anwendung. 

Nikita Volkov ist Entwickler mit vier Jahren Haskell-Erfahrung, denen ein Jahrzehnt an Erfahrungen mit objekt-orientierten Mainstream-Sprachen vorausging. Er arbeitet bei Sannsyn AS, einer Norwegischen Firma, die neben allgemeiner IT-Beratung auch eine Recommendation-Engine-as-a-Service anbietet. Seit er sich der Haskell-Community anschloss, trägt er aktiv bei und veröffentlichte so bemerkenswerte Open-Source Projekte wie stm-containers, hasql und record. Letzteres ist Thema des Vortrags.

Die Mirage OS ist das ausführende Betriebssystem einer Open-Source-Bibliothek, das in der funktionalen Sprache OCaml geschriebenen Code in eine Vielzahl von Hardware-Backends übersetzt, ganz insbesonderes spezialisierte Unikernels, die direkt auf dem Hypervisor Xen laufen. Mirage ist vor allem nützlich, um sichere, zuverlässige OS-Komponenten wie Speicher oder vernetzte Deamons zu erstellen. Anstatt komplexe Entwicklungen wie den Stapelspeicher LAMP (mit den damit einhergehenden Sorgen um Sicherheit) koordinieren zu müssen, bietet Mirage die Möglichkeit, aus einer Reihe von Protokoll-Bibliotheken „deine eigene Cloud zu übersetzen“. Zum Beispiel nutzt die vorhandene Mirage-Website DNS- und HTTP-Server, die als verschiedene Cloud-hosted Unikernels laufen. Diese werden über den Stapelspeicher Irminsule koordiniert, der Git als sein Kommunikationsprotokoll verwendet. Die Entwicklung verwendet das kontinuierliche Integrationswerkzeug Travis, um die gesamten übersetzten Bilder an z.B. Github zu übergeben, von wo sie automatisch ausgeliefert werden können. In diesem Vortrag wird die Struktur von Mirage beschrieben, einige Orientierungsergebnisse bezüglich des Vergleichs der Leistung von unseren Unikernels und traditionellen Applikationen wie Apache, BIND und OpenSSH vorgestellt, und kurz die daraus resultierenden Vorteile für den Arbeitsablauf in der Entwicklung dargestellt. Darüber hinaus werden die neuesten Ergebnisse unter Verwendung von Mirage für Niedriglatenzzeit-Entwicklungen von ARM-Boards mit niedriger Leistung und kleiner Reduktionszahl präsentiert.

Richard Mortier ist ein Fakultätsmitglied in der Forschungsgruppe für Systeme am Computer Lab der Cambridge University. Seine bisherige Tätigkeit umfasst Internetrouting, Leistungsanalyse verteilter Systeme sowie Heimvernetzung. Er arbeitet in der Abteilung für Systeme und Vernetzung durch Mensch-Computer-Interaktion und konzentriert sich derzeit auf die Entwicklung von einer Infrastruktur für nutzerzentrierte Systeme, welche die Menschen dazu befähigt, sich in einer Welt, wo Computer allgegenwärtig sind, mithilfe von Mensch-Daten-Interaktion selbst zu unterstützen.

Jolla - the impossible story (auf Englisch)

Carsten Munk, Chief Research Engineer bei Jolla

In diesem Vortrag werden Sie davon erfahren, wie es dem Startup Jolla gelungen ist, mit nur 100 Mitarbeitern ein mobiles Betriebssystem und ein Mobiltelefon zu entwickeln. Besetzt mit hauptsächlich ehemaligen Nokia-Entwicklern haben wir es geschafft, ein nicht-Android-Mobiltelefongerät mit einem eigenen mobilen Betriebssystem zu bauen, einzuführen und zu vermarkten, und das in einer viel kürzeren Zeit als etablierte Anbieter je in der Lage gewesen sind. Über die Geschichte hinaus werde ich detailliert darstellen, wie ein modernes mobiles Betriebssystem aufgebaut wird - nicht nur von der technischen Seite gesehen, sondern auch wie man ein großartiges Produkt entwickelt und verkauft und wie man mit seinen Kunden zusammenarbeitet.

Carsten Munk ist Chief Research Engineer bei Jolla, besitzt eine starke Leidenschaft für Open Source und war zuvor im MeeGo-Projekt von Intel und Nokia involviert. Jolla wurde im Jahr 2011 aus der Leidenschaft seiner Gründer für Open Innovation im mobilen Bereich geboren.

Spiele, Grafik und VR

Sehen wie ein Terminator - Augmented Reality mit der Oculus Rift

Team Red Pill, TNG

Was wäre, wenn Ihr Navigationssystem Routeninformationen direkt in Ihr Sichtfeld projizieren könnte oder Gesichtserkennung Ihnen bei der Identifizierung von Gesichtern hilft? Durch die rasante Weiterentwicklung der Virtual-Reality-Brillen in den letzten Jahren kann diese Vision bereits bald Realität werden. Das Maker-Team "Red Pill" der TNG Technology Consulting GmbH hat mit Hilfe der VR-Brille "Oculus Rift DK2" Anwendungen entwickelt, die die Realität um sinnvolle Zusatzinformationen erweitern. Im Gegensatz zum klassischen Anwendungsfall solcher Displays wird der Nutzer nicht in virtuelle Welten versetzt, sondern behält sein normales Sichtfeld bei. Dies geschieht durch die Erweiterung der VR-Brille mit zwei zusätzlichen Kameras. Das dadurch gewonnene stereoskopische Bild kann zum Beispiel um Daten zur Gesichtserkennung und -identifikation angereichert werden. In diesem Vortrag werden Sie die TNG-Consultants in die Welt der Augmented Reality einführen. Sie erhalten einen Einblick in den gesamten Programmablauf, vom Auslesen der Bilder bis hin zu ihrer Darstellung auf dem VR-Display. Dabei werden sie auch die Historie dieser gar nicht so neuen Technologie beleuchten und weitere Anwendungsgebiete aufzeigen.

Management

Nach klassischen Messzahlen steht Bayern im nationalen Vergleich bei klassischen Indikatoren wie Bruttoinlandsprodukt und Arbeitslosenquote ganz weit vorne. Wir alle leben gerne in Bayern - aber ist Bayern auch gut auf die Zukunft vorbereitet? Dieses Bild ändert sich, wenn statt klassischen neuere, zukunftsgewandte Indikatoren wie Einkommensverteilung, Start-Up Quote, Integrationsindex und Bildungsmobilität angeschaut werden. Aus McKinseys Sicht ändert sich die Welt gerade radikal: Strukturbrüche wie "Ende der Arbeit wie wir sie kennen", "volatile Welt", endliche Ressourcen (Budgets)" und "disruptive Technologien" führen zu einer ganz anderen Welt, als wir sie heute sehen. Für die Auswirkungen dieser Brüche gibt es zwei gegensätzliche Lesarten: eine Welt der Spaltung auf der einen und eine Welt der Teilhabe auf der anderen Seite. Neue Spielfelder können die Konfliktlinien aufgreifen - wir haben insgesamt 15 als erste Ideen gesammelt (z.B. digitale Bildung, integriertes Gesundheitswesen, Energieeffizienz und -unabhängigkeit, Belebung der bayerischen Identität). Bei der Diskussion um Bayerns Zukunft wird aber auch deutlich, dass es nicht "ein Bayern" gibt, sondern mehrere Regionen - und dass es gerade um Synergien zwischen diesen geht, nicht um Wettbewerb.

Johannes Elsner hat an der Ludwig-Maximilians-Universität München Rechtswissenschaft studiert und im Jahr 2000 den General Course der London School of Economics absolviert. Im Jahr 2006 ist er bei McKinsey in München als Associate eingestiegen, wo er im Jahr 2012 Partner wurde. Zu seinen bisherigen Projekten zählen die Erarbeitung einer Wachstumsstrategie für das Geschäft mit institutionellen Investoren für einen führenden Asset Manager, die Definition einer Wachstumsstrategie für eine große Konsumentenbank unter Berücksichtigung von mobile Banking und die Restrukturierung des Italiengeschäftes für eine große Kapitalanlagegesellschaft.

Enterprise services planning: Scaling the benefits of Kanban (auf Englisch)

David Anderson, Anderson Associates

Kanban existiert bereits seit 10 Jahren. Wir wissen, dass es direkte Vorteile für die Servicebereitstellung einräumt. Wir wissen ebenfalls, dass der evolutionäre Wandel ein besserer Weg zur Adaptation von Organisationen zu Marktunsicherheiten und verändernden Marktbedingungen ist. Dennoch wurde Kanban meist von innen nach außen adoptiert, beginnend mit kleinen Teams und in der Mitte der Kette von Servicebereitstellungs-Workflows. Häufig wird Kanban lokal implementiert und liefert daher nur begrenzte Vorteile. Kanban wurde immer als eine End-to-End-Unternehmenslösung gedacht. Enterprise Services Planning (ESP) ist Kabans Zukunft. ESP ist ein Outside-In-Ansatz, der sich auf Strategie, Zwecktauglichkeit und Angleichung der Leistungsfähigkeit an die Strategie fokussiert, und dabei eine Verbesserung der Geschäftsergebnisse durch die Verwendung von Kanban als Servicebereitstellungsmethode und Wegbereiter des evolutionären Wandels ermöglicht. ESP enthält Leitlinien für das Portfoliomanagement, die Kapazitäts- und Zeitplanung, Prognosestellung und Risikoverwaltung. ESP wird durch neue Software-Tools unterstützt, die die Entscheidungsfindung und Prozessverbesserung ermöglichen, indem sie Manager mit verbesserten Informationen und Empfehlungen basierend auf Erkenntnissen der Risikorechnung versorgen. ESP bietet AI für jedes Technologieunternehmen. Es ist die Zukunft für die Verwaltung moderner Unternehmen des 21. Jahrhunderts!

David J. Anderson leitet eine führende Consulting-Firma mit dem Fokus auf Leistungssteigerung technischer Unternehmen. Er verfügt über langjährige Erfahrung im Anleiten von Teams in agilen Softwareentwicklungsprojekten. David gilt als Mitbegründer der agilen Bewegung durch seine Beteiligung an der Gestaltung von Feature Driven Development. Er war zudem einer der Gründer der APLN, eine Non-Profit-Organisation, die der Verbesserung von Management und Führung in technischen Unternehmen gewidmet ist. In letzter Zeit hat David seinen Fokus eher auf Agilität in Unternehmen und im Betrieb skalierte agile Software-Transitionen gelegt, was durch die Synergie des CMMI-Modells mit agilen Methoden und Lean-Praktiken ermöglicht wird.

 

 

Hier geht's zur Programmübersicht.