Home  •  Kontakt  •  Anfahrt  •  Impressum

Donnerstag, 7. Juli 2016
Kultur- & Kongresszentrum Liederhalle Stuttgart
#jfs2016

Sie sind hier: Start»Programm 2016»Vorträge von 09.50 - 10.35 Uhr

Abstracts der Vorträge von 09.50 - 10.35 Uhr

Schiller-Saal

A2

09.50 - 10.35 Uhr

Business ProcessClientsCore-JavaEnterprise JavaIDE / Eclipse u. ToolsInternet of Things / EmbeddedSW-ArchitekturenSecurityMobile

Themenbereich: Internet of Things / Embedded

SQL meets NoSQL - Interaktive IoT-Datenanalyse trifft auf Open Source mit Apache NiFi, Solr und Zeppelin

Sponsored Talk

Stichworte: Data Analytics, Visualisierung, SQL


Daniel Wrigley (SHI GmbH)

Zielgruppe:
Fortgeschrittene

Abstract:

Durch das Internet of Things nimmt die Anzahl der Geräte, die Daten produzieren und somit natürlich auch die Datenmenge in den kommenden Jahren noch rasanter als bisher zu. Diese Daten sind wie Rohöl zu behandeln. Durch Aggregation, Kombination und Analyse können geschäftskritische Erkenntnisse aus ihnen gewonnen werden. Die schiere Menge an Daten und deren unterschiedliche Beschaffenheit setzen für ein solches Ziel eine Plattform voraus, die mit diesen Gegebenheiten zurechtkommt.
Dieser Vortrag stellt drei Open Source Komponenten vor, die zusammen eine solche Plattform ergeben. Apache NiFi sorgt für Verarbeitung und Verteilung der Daten, Apache Solr als skalierbarer Suchserver für das Speichern und Apache Zeppelin für die Analyse und Visualisierung. Anhand eines konkreten Use Cases, der Analyse und Visualisierung von Wetterdaten, wird ein kompletter Workflow vom Import der Daten bis hin zu deren Visualisierung vorgestellt.
Die Wetterdaten werden von einem NiFi-Workflow importiert und in Solr indexiert. Eines der neuesten Solr-Features, SQL-Abfragen, die über verteilte Suchindexe abgesetzt werden können, ermöglicht die Analyse großer Datenmengen auf einfache und gleichzeitig schnelle Art und Weise. Die Unterstützung von SQL-Syntax sorgt zudem für eine niedrige Einstiegshürde in diese Technologie für alle, die SQL beherrschen. Zu guter Letzt sorgt Zeppelin mit dem grafischen Interface dafür, dass diese Daten interaktiv abgefragt, analysiert und visualisiert werden können. Mit diesen Komponenten wird anhand der Wetterdaten von Oberstdorf analysiert, ob sich eine fiktive Investition in den Wintersport eher rentiert als eine Investition in den Sommertourismus.


Über den Referenten:

Daniel Wrigley
Daniel Wrigley
Daniel Wrigley
Daniel Wrigley ist seit 2012 als Consultant bei SHI beschäftigt. Sein an der LMU München mit dem Magistergrad abgeschlossenes Studium der Computerlinguistik diente als Voraussetzung, um seine täglichen Aufgabengebiete (u.a. Implementierung und Projektleitung von Such- und Big-Data-Anwendungen auf Basis von Solr und Elasticsearch, Durchführung von Solr-Schulungen) meistern zu können.
Zusammen mit seinem Kollegen Markus Klose ist er Autor des ersten deutschsprachigen Buches über Apache Solr.

Beethoven-Saal

B2

09.50 - 10.35 Uhr

Business ProcessClientsCore-JavaEnterprise JavaIDE / Eclipse u. ToolsInternet of Things / EmbeddedSW-ArchitekturenSecurityMobile

Themenbereich: Architektur

Code Reviews: Techniken und Tipps

Non-Sponsored Talk

Stichworte: Data Analytics, Visualisierung, SQL


Rabea Gransberger (MEKO-S GmbH)

Zielgruppe:
Fortgeschrittene

Abstract:

Wie kann man erreichen, dass Code den man vor einiger Zeit geschrieben hat für einen selbst und auch für andere lesbar und verständlich ist? Wie stellt man sicher, dass alle Entwickler eines Projektes qualitativ gleichwertigen Code schreiben? Wie kann man inhaltliche Fehler im Code finden bevor dieser beim Kunden im Einsatz ist?
Dieser Vortrag stellt die Praxis des Code Reviews zum Auffinden von Fehlern und zur Erhöhung der Qualität des Codes vor. Lesbarer und qualitativ hochwertiger Code ist für den langfristigen Erfolg eines Projektes unerlässlich, um Wartung und Erweiterungen möglich zu machen.
Es werden zunächst Tools vorgestellt mit denen sich Code Reviews teilweise automatisieren lassen. In einem weiteren Teil geht es um Erfahrungen, Techniken und Tipps um Code Reviews manuell und/oder mit Toolunterstützung durchzuführen und den Entwicklern Feedback und Verbesserungsvorschläge zu geben.
Dabei stehen folgende Fragen im Vordergrund:
- Wie fängt man einen Review an?
- Wer ist für die Reviews zuständig?
- Sollte man jedes Stück Code reviewen?
- Wenn ich TDD mache, brauche ich noch Reviews?
- Wie formuliert man Verbesserungsvorschläge und gibt diese an die Entwickler weiter?
- Welche Tools können einen Code Review unterstützen?
- Wie können alle im Team von einem Code Review profitieren?


Über die Referentin:

Rabea Gransberger
Rabea Gransberger
Rabea Gransberger
Rabea hat Informatik an der Universität Bremen studiert und das Studium 2008 mit einem Diplom abgeschlossen. Seitdem arbeitet Sie als Softwareentwicklerin, Abteilungsleiterin und Projektleiterin bei MEKOS. Ihr ist es besonders wichtig qualitativ hochwertigen Code zu schreiben und die Entwickler in Ihrem Team entsprechend fortzubilden. Dieser Bereich zählt auch zu Ihren Hauptthemen für Vorträge auf diversen Konferenzen und an User Group Abenden. Hauptsächlich programmiert Rabea an dem eclipse RCP/RAP basiertem Projekt OTIS. Im Jahr 2012 hat Rabea die Java User Group Bremen gegründet und ist seitdem an der Organisation beteiligt. Neben der Softwareentwicklung ist Rabea leidenschaftlicher Fußballfan und beim jedem Spiel im heimischen Weserstadion zu finden.

Hegel-Saal

C2

09.50 - 10.35 Uhr

Business ProcessClientsCore-JavaEnterprise JavaIDE / Eclipse u. ToolsInternet of Things / EmbeddedSW-ArchitekturenSecurityMobile

Themenbereich: Enterprise Java

MVC - Action-basierte Web-Anwendungen mit Java EE 8

Non-Sponsored Talk

Stichworte: MVC Web-Framework JAX-RS CDI


Thilo Frotscher (Thilo Frotscher, Software-Entwickler & Trainer)

Zielgruppe:
Fortgeschrittene

Abstract:

Eine der spannendsten, aber auch kontroversesten Neuigkeiten des kommenden Java EE 8 ist ein neues Web-Framework. Es trägt den (etwas unglücklichen) Namen "MVC" und wird im Unterschied zu JavaServer Faces nicht komponenten- sondern action-basiert sein. Damit ermöglicht es einen Programmieransatz, den zwar viele Entwickler favorisieren, der vom Java EE-Standard jedoch bislang nicht unterstützt wurde. MVC basiert stark auf bestehenden Technologien wie CDI und JAX-RS, und bietet daher Entwicklern mit entsprechener praktischer Erfahrung einen besonders leichten Einstieg. In diesem Vortrag werden die Grundlagen von MVC, sowie der aktuelle Stand 
der Spezifikation vorgestellt. Teilnehmer lernen, wie MVC-basierte Anwendungen bereits heute auf Basis der Referenzimplementierung erstellt werden können, wie sich Web-Frontends mit REST-Backends verbinden lassen, und wie man eine Vielzahl von View-Technologien mit MVC kombinieren kann.


Über den Referenten:

Thilo Frotscher
Thilo Frotscher
Thilo Frotscher
Thilo Frotscher arbeitet seit über 15 Jahren als freiberuflicher Software-Architekt und Trainer. Seine fachlichen Schwerpunkte bilden die Java-Plattform, sowie der Themenbereich Systemintegration und (Web) Services.
Herr Frotscher unterstützt Unternehmen überwiegend durch die praktische Mitarbeit in Software- Projekten. Dabei nimmt er unterschiedliche Rollen ein – vom Senior Entwickler über den Architekten bis hin zum Technischen Projektleiter. Über die Jahre konnte er dabei weit reichende Erfahrung insbesondere im Bereich der Integration von heterogenen Systemlandschaften sammeln. Darüber hinaus zählen Web-Technologien zu seinen Interessensschwerpunkten.
Eine weitere wichtige Tätigkeit ist die Durchführung von Schulungen. Neben zahlreichen Inhouse- Schulungen hält Herr Frotscher regelmäßig Vorträge und Workshops auf internationalen Fachkonferenzen, auf Schulungsveranstaltungen oder bei Java User Groups. Für den regelmäßig stattfindenden „Java EE Summit“ wurde er als einer der Java EE Technologie-Experten ausgewählt. Darüber hinaus ist Herr Frotscher Verfasser zahlreicher Artikel für IT-Fachzeitschriften, sowie (Co-) Autor mehrerer Bücher in den Themenbereichen Java EE, (Web) Services und SOA.
Über die Jahre konnte Herr Frotscher Erfahrungen in den unterschiedlichsten Branchen sammeln. Zu seinen Kunden zählen unter anderem Unternehmen aus dem Finanzbereich, Tourismus, Telekommunikation, Forschung und IT, sowie diverse Behörden und Ministerien. Er durfte dabei Teams in Europa, Asien, Australien und Neuseeland vor Ort mit seiner Arbeit unterstützen.

Mozart-Saal

D2

09.50 - 10.35 Uhr

Business ProcessClientsCore-JavaEnterprise JavaIDE / Eclipse u. ToolsInternet of Things / EmbeddedSW-ArchitekturenSecurityMobile

Themenbereich: Core-Java

Workflows mit BPMN & Business Rules mit DMN - Open Source und in Action mit Camunda BPM

Sponsored Talk

Stichworte: BPMN, DMN, Open Source, Java


Bernd Rücker (Camunda services GmbH)

Zielgruppe:
Fortgeschrittene

Abstract:

Erwarten Sie plumpes Marketing für unsere BPM Platform! Ähm - wie bitte? Nein - natürlich das genaue Gegenteil! Im Vortrag möchte ich live demonstrieren (und codieren!) wie bestimmte Sachverhalte in BPMN 2.0 (Workflows) und vor allem auch dem brandneuen DMN Standard (Business Rules mit Entscheidungstabellen) grafisch modelliert und dann direkt auf einer Java Engine ausgeführt werden. Dazu verwende ich die quelloffene Camunda BPM Platform - so dass alles direkt zu Hause nachgebaut werden kann! In der Session diskutiere ich mögliche Architekturen von klassischer SOA bis zu Spring Boot basierenden Microservices. Natürlich dürfen Best Practices sowie ein bisschen Meinung nicht fehlen, z.B. dass "Zero-Code-Lügen¿ in die Märchenbücher gehören - und nicht in Marketingmaterialien der Hersteller!


Über den Referenten:

Bernd Rücker
Bernd Rücker
Bernd Rücker
Ich bin Mitgründer und Technology Evangelist bei Camunda. Vor Camunda BPM habe ich aktiv an der Entwicklung der Open Source Workflow Engines JBoss jBPM 3 und Activiti mitgearbeitet. Ich begleite seit über 10 Jahren Kundenprojekte rund um BPM, Workflow Engines und Java Enterprise. "Entwicklerfreundliches BPM" ist meine absolute Leidenschaft! Wenn ich nicht im Kundeneinsatz bin, spreche ich auf Konferenzen und publiziere Fachartikel und Bücher.

Raum Sylt

E2

09.50 - 10.35 Uhr

Business ProcessClientsCore-JavaEnterprise JavaIDE / Eclipse u. ToolsInternet of Things / EmbeddedSW-ArchitekturenSecurityMobile

Themenbereich: Architektur

ACHTUNG VORTRAGSWECHSEL: Microservices mit Jersey und einem In-Memory Data Grid

Non-Sponsored Talk

Stichworte: microservices, reactive programming, jersey, state, in-memory data grid


Peter Doschkinow (ORACLE Deutschland B.V. & Co. KG)

Zielgruppe:
Fortgeschrittene

Abstract:

Microservices-Architekturen ermöglichen den modularen Aufbau von komplexen Web-Anwendungen, die aus leichtgewichtigen, unabhängig installierbaren Microservices bestehen, die leicht zu testen und betreiben sind.
Jersey 2, die Referenzimplementierung von JAX-RS 2.0, liefert die Grundlage für die empfohlene RESTful Kommunikation mit Microservices, die in Java erstellt wurden. Jenseits der Java EE API bietet Jersey die Möglichkeit, leichtgewichtige Microservices zu bauen, die besser für Monitoring geeignet sind, ohne vollständige Java EE Container auskommen, sowie eine Reactive-Programming API zur asynchronen client-seitigen Microservice-Orchestrierung.
Diese Features werden in einer Demo-App erläutert. Die Demo-App wird durch einen In-Memory Data Grid basierten State-Microservice erweitert und somit hoch-skalierbar und hoch-verfügbar gemacht.


Über den Referenten:

Peter Doschkinow
Peter Doschkinow
Peter Doschkinow
Peter Doschkinow arbeitet als Senior Java Architekt bei Oracle und unterstützt die Java Community in Deutschland. Er beschäftigt sich mit Web-, Java-Technologie Frameworks und Cloud-Services. Vor seiner Tätigkeit bei Oracle hat er wertvolle Erfahrungen als Java Architekt und Berater bei Sun Microsystems gesammelt.

Silcher-Saal

F2

09.50 - 10.35 Uhr

Business ProcessClientsCore-JavaEnterprise JavaIDE / Eclipse u. ToolsInternet of Things / EmbeddedSW-ArchitekturenSecurityMobile

Themenbereich: Business Process

Von Shitstorms und Reaktionszeiten - Predictive Analytics mit Spark Streaming

Non-Sponsored Talk

Stichworte: Predictive Analytics, Big Data, Hadoop, Realtime


Dr. Ralph Guderlei (eXXcellent Solutions GmbH)

Zielgruppe:
Fortgeschrittene

Abstract:

Predictive Analytics gibt das Versprechen, Entwicklungen und daraus resultierende Probleme frühzeitig zu erkennen um dann auch  gegensteuern zu können. Dazu ist es notwendig, dass die Informationen zeitnah zur Verfügung stehen. Welche Probleme und Fragestellungen das sein können, wird anhand eines realen Beispiels aufgezeigt: Das Diskussions- und Support-Forum einer Online-Lernplattform. Der Vortrag erläutert, wie aus den Nachrichten des Forums beispielsweise Fragen nach der Servicequalität und der Zufriedenheit der Benutzer beantwortet werden können. Eine mögliche Plattform für die Umsetzung ist Apache Spark Streaming. Nach einer kurzen Einführung in Apache Spark Streaming zeigt der Vortrag die konkrete Umsetzung der Eingangs skizzierten Fragestellungen. Für die Umsetzung ist nicht nur Technologie notwendig, es sind auch Verfahren zur Textklassifikation oder einfache statistische Analysen notwendig. Der Vortrag beleuchtet sowohl die Theorie als auch die praktischen Umsetzung mit Spark Streaming.


Über den Referenten:

Dr. Ralph Guderlei
Dr. Ralph Guderlei
Dr. Ralph Guderlei
Dr. Ralph Guderlei ist Technology Advisor bei der eXXcellent solutions GmbH in Ulm. Neben der Arbeit als Architekt/Projektleiter in unterschiedlichen Kundenprojekten berät er Teams in technologischen und methodischen Fragestellungen. Seine  Erfahrungen gibt er gerne auf Konferenzen und in Fachartikeln weiter.

Raum Usedom

G2

09.50 - 10.35 Uhr

Business ProcessClientsCore-JavaEnterprise JavaIDE / Eclipse u. ToolsInternet of Things / EmbeddedSW-ArchitekturenSecurityMobile

Themenbereich: Business Process

Spark vs. Flink - Rumble in the (Big Data) Jungle

Non-Sponsored Talk


Michael Pisula und Konstantin Knauf (TNG Technology Consulting GmbH)

Zielgruppe:
Anfänger

Abstract:

Nachdem sich Apache Spark im letzten Jahr als ernsthafte Alternative unter den Big Data Frameworks etablieren konnte und Hadoop MapReduce den Rang abläuft, kommt nun aus Berlin unerwartet Konkurrenz in Form von Apache Flink. 

Die Ähnlichkeiten zwischen beiden Frameworks sind unverkennbar. Beide setzen auf In-Memory Processing und einen integrativen Ansatz zur Umsetzung von Data Processing Pipelines. Ersteres beschleunigt die Verarbeitung, letzteres vereinfacht sowohl Entwicklung als auch Betrieb komplexer Big Data Applikationen. 

Bei genauerer Betrachung treten aber grundsätzliche Unterschiede zu Tage. Den Kern von Spark bildet eine Batch Processing Engine, während Flink auf einer Stream Processing Engine aufbaut. Auf diesen Engines werden dann alle anderen Abstraktionen abgebildet. Gerade dieser konzeptionelle Unterschied ist auch in der alltäglichen Arbeit mit den Frameworks hochrelevant.

Wir werden die Hauptkonzepte der beiden Konkurrenten durch viele Codebeispiele beleuchten, Schwächen und Stärken vergleichen, aber auch auf Performance und Entwicklungskomfort eingehen.


Über die Referenten:

Michael Pisula
Michael Pisula
Michael Pisula
Michael Pisula hat Informatik an der Universität Passau studiert. Sein besonderes Interesse gilt den verteilten Systemen, insbesondere der immer wichtiger werdenden Big Data Welt. Als Senior Consultant bei TNG hilft er unseren Kunden wenn es um Big Data, Akka, Continuous Integration und allgemein um nicht-triviale Probleme geht.
Konstantin Knauf
Konstantin Knauf
Konstantin Knauf
Konstantin Knauf hat an der TU Darmstadt Mathematik und Informatik mit Schwerpunkt Machine Learning studiert. Seit 2015 ist er als Software Consultant bei TNG Technology Consulting tätig, und dort unter anderem auf Projekten im Big Data-Umfeld unterwegs.