40 Benjamin Wulff, Alexander Fecke Software auf einem handelsüblichen PC zu betreiben sein. Das System soll sich nahtlos in die Infrastruktur von Opencast Matterhorn einbinden lassen. Lecture-Sight ist ein Opencast Community Projekt und wird u. a. von Matterhorn-Entwick-lern getragen und von der Opencast Community fachlich unterstützt.2. Das System 2.1. Physikalischer Aufbau Liu et al. (2003) schlagen einen Aufbau vor, bei dem eine sog. Übersichtskamera und die PTZ-Kamera am gleichen Platz montiert sind. Dadurch ist es möglich, Ko-ordinaten aus dem Sichtfeld der Übersichtskamera einfach in Koordinaten für die Steuerung der PTZ-Kamera zu überführen. Als Übersichtskamera wird eine han-delsübliche Webcam verwendet. Die PTZ-Kamera wird über das VISCA Protokoll von Sony angesteuert.2.2. Softwarearchitektur Das System wird als eine Anzahl von sog. Bundles für das OSGI Softwaremodulari-sierungssystem in der Programmiersprache Java implementiert (Ketterl et al., 2010; OSGi Alliance, 2009). Auf dieser Technologie setzt auch Opencast Matterhorn auf (Ketterl et al., 2010). Dadurch ist es möglich, LectureSight zusammen mit der Auf-zeichnungskomponente von Matterhorn in der gleichen Java VM zu betreiben. Die beiden Anwendungen können so zu Einer verschmelzen. Die rechenintensiven Teile der Software die für die Analyse der Szene verwendet werden, wurden für die Aus-führung auf der Grafikkarte implementiert. Dabei wird OpenCL, ein plattformüber-greifender Standard für das Rechnen auf der Grafikkarte, verwendet (Khronos Open CL Working Group, 2008).2.3. Szenenanalyse Die Szenenanalyse orientiert sich an Systemen für die Überwachung öffentlicher Räume wie W4 (Haritaoglu & Davis, 2000) oder ADVISOR (Siebel & Maybank, 2004). In beiden Systemen wird ein statistisches Model der Szene verwendet um Vordergrundobjekte zu finden. Ein Überblick über Hintergrundsubtraktionsverfah-ren wird gegeben in (McIvor, 2000). In LectureSight wird im Gegensatz zu den meisten anderen Hintergrundsubtraktionsverfahren allerdings die Vordergrund-maske nicht in jedem Frame neu generiert, sondern über die Zeit aufgebaut. Eine detaillierte Beschreibung des Verfahrens findet sich bei Wulff und Rolf (2011). Auf der Vordergrundmaske wird die parallele Verbundene Komponenten Analyse wie bei Kalentev, Rai, Kemnitz und Schneider (2010) beschrieben durchgeführt. Kleine Vordergrundbereiche werden entfernt und die verbliebenen Bereiche werden den Vordergrundbereichen aus dem letzten Frame zugeordnet.