Verteiltes Rechnen mit Apache Hadoop und Map/Reduce

Termin

Der Vortrag findet am 03.03.2011 um 19:00 Uhr in der Uni Mannheim A5, 6 im Raum C013 statt Anfahrtsbeschreibung.

Abstract

Apache Hadoop stellt ein verteiltes Dateisystem (HDFS) und darauf aufbauendes Computing-Framework (Map/Reduce) zur Verfügung und eröffnet neue Perspektiven im Hinblick auf Durchsatz, Skalierung und Batch-Job-Verarbeitung. Dieser Vortrag erklärt die zugrundeliegenden Konzepte. In einer kurzen Demo wird die Interaktion mit HDFS und ein Map/Reduce Job gezeigt.

Bio

Bernd Fondermann (bernd.fondermann[at]brainlounge.de) ist freiberuflicher Softwarearchitekt und Consultant in Frankfurt a. M. Er beschäftigt sich mit innovativen Open-Source-Technologien wie Apache Hadoop und Lucene und ist Member der Apache Software Foundation und Vice President Apache Labs.