Projekt: vid-web-droid

Dominik Eckelmann
Julian Heise

Projektbeschreibung

Es soll ein Portal geschaffen werden, in dem Anwender Videos von ihrem Android-Handy streamen können, welche sich Benutzer dann im Internet anschauen können. Parallel zu dem Video soll eine Landkarte angezeigt werden, auf der die Standpunkte der sendenden Teilnehmer angezeigt werden. Auf diese Weise erhalten die Betrachter einen Überblick über zur Verfügung stehendes Videomaterial und können den Sender auswählen.

Das System kann optional mit Benutzermanagement (Anmelde- / Profilfunktion) ausgestattet werden.

Projektziel

Ziel des Projektes ist es, eine die Anwendung prototypisch umzusetzen, so dass:

  • Andorid App von D. Schmid und F. Politz kann Videos an das System senden.
  • Benutzer können Positionen der Live-Streams auf einer Kartenansicht sehen
  • Benutzer können aufgenommenes Video der Android App ansehen

Zudem soll eine vorführbare Demo Version zur langen Nacht der Wissenschaft bereitgestellt werden.

Zielgruppe

Jugendliche und Erwachsene

Stand der Technik

Video wiedergabe im Web:

  • Youtube
  • Flash Player zur wiedergabe
  • HTML5 Video Tag

Online Karten

  • Google Maps API
  • Open Street Map
  • Bing Maps

Übertragungswege

  • Java HTTP Server
  • Airit Protokoll (Schmid/Politz)
  • RTP
  • UDP

Projektinnovation

Bisher ist uns ein vergleichbares Portal nicht bekannt.

Herausforderungen/Risiken

Herausforderungen:

  • Verteiltes System
  • Verschiedene Protokolle
  • Video-
    • formate
    • encoding
    • synchronisierung
    • streaming

 

Verwendete Technik

Der Server soll als Web-Service ausgelegt werden und ein Streaming der Videodaten ermöglichen. Hierfür muss ein geeignetes Protokoll ausgewählt werden. Denkbar sind HTTP, UDP, RTMP oder eine Eigenentwicklung.

Techniken:

  • HTML/CSS
  • JavaScript
    • JQuery
    • Google Maps
  • Airit Protokoll
  • Java SE SDK
  • C/C++

Terminplanung/Meilensteine

  1. Essentials: Video vom Handy via Server direkt zum Web Client
    • Android APP nimmt das Video auf und sendet es direkt an einen Server
    • Server verteilt das Video via Webseite an Clients
    • Video ist nicht persistent
    • Keine Authentifizierung
    • Keine Geodaten
  2. Geo Daten
    • Kartenansicht für Position des Aufnahmegerätes
    • Übertragung der Position zusammen mit Bildmaterial
  3. User-Awareness, Videos persistent
    • Server speichert die Videos
    • Authentifizierung
    • Video-Benutzer Zuordnung
    • Weboberflächen zum ansehen der gespeicherten Videos und der Benutzer
    • einfache Suchfunktion
  4. Social funktionen (optional)
    • Benutzer können anderen Benutzern folgen – Twitter nachempfunden
    • Kommentarfunktion für Videos
    • Bewertungsfunktion (like, +/-)
    • etc.

Einsatz der Kinect zum Chromakeying unter Einbeziehung der Tiefendaten

Projektziel
Es soll anhand eines Prototyps in C# evaluiert werden, ob die technischen Rahmenbedingungen der Kinect (Auflösung, Rauschen, Chromasubsampling etc.) für Chromakeying ausreichend sind

Stand der Technik
Chromakeying erfolgt größtenteils Pixelbasiert

Projektinovationen
Einbeziehung der von der Kinect gelieferten Tiefendaten zum Chromakeying

Herausforderung
Spatiale und Temporale Auflösung der Kinect ist begrenzt

Meilensteine
Generierung der Tiefenkarte und Optimierung der Werte
Chromakeying mit Tiefenkarte
Aufzeichnung des gekeyten Videos
Remotesteuerung (Anpassung der Parameter im Smartphone)
Abschliessende Evaluierung/Vergleich mit rein pixelbasierter Verfahren

Entwicklung einer Tablet-App für das Aufnehmen und Bearbeiten von Videos

Projektziel

Entwicklung einer Tablet-App für das Aufnehmen und Bearbeiten von Videos

Zielgruppe

Fachpersonal – hält ihr Wissen in multimedialer Form fest

Stand der Technik
Ansteuerung von Kamera auf einem Tablet ist möglich, jedoch keine Aufzeichnung

Projektinnovation

Eine videobasierte e-Learning Plattform zum aufzeichnen und vermitteln von Fachwissen. Integration von AV-Frameworks für die Adobe AIR Plattform.

Herausforderungen/Risiken

  • Die Integration von Videoaufnahme und dessen Bearbeitung innerhalb der Adobe AIR Plattform ist zum aktuellen Stand der Technik nicht vorgesehen
  • Persistierung des aufgenommenen Videomaterials
  • Durch das Forschungsprojekt ist die Adobe Flex Plattform Mehr oder Minder vorgeschrieben und führt dadurch zu einer Beschränkung. Es existieren bis dato keine Ansätze zur Implementierung einer solchen Funktion auf Basis einer solchen Plattform. Daher ist die technische Machbarkeit nicht eindeutig nachgewiesen.

Meilensteine/Arbeitspakete

  1. Aufzeichnung von Videomaterial
  2. Segmentierung und Hinzufügen von Metadaten zum aufgenommenen Videomaterial
  3. Persistierung des bearbeiteten Materials


Projektvorschlag: Live Reportage vom Flughafen-Umzug Tegel-Schönefeld

Projektvorschlag: Live Reportage vom Flughafen-Umzug Tegel-Schönefeld

Live Streaming über LTE – in Zusammenarbeit mit einem Unternehmen

Für den kommenden Flughafenumzug werden noch studentische Projektteilnehmer/innen gesucht, die das im Rahmen einer Live-Reportage begleiten wollen.

Eingebunden wird das Projekt in die Lange Nacht der Wissenschaften mit einer Präsentation des Fachbereichsteams Medieninformatik

Teilprojekt: Reportage-Konzept und Produktion

Teilprojekt: Mobiler Sender, PC-basiert, Laptop, Kamera, Encoder; Sender

Optional auch in 3D

Projekte unabhängig voneinander möglich!

LTE ist die Nachfolgetechnologie von UMTS und ermöglicht mobile Datenübertragung mit hohen Bitraten. Damit wird mobiles Live Streaming in HD möglich.

Projektvorschlag: 3D-Stereo-Live-Streaming-Produktion

In diesem Projekt soll auf Basis eines Stereoskopischen Kamera- und Streaming-Setups eine Veranstaltung Live in 3D per Live Stream im Internet übertragen werden.

Der Schwerpunkt soll also hier auf Live Produktion liegen.

  • Erarbeiten Grundlagen Stereoskopie
  • Erarbeiten Grundlagen Live Streaming
  • Systemvoraussetzungen Sender (Encoder) – Empfänger (Player)
  • Systemaufbau
  • Live-Produktion

 

Projektvorschlag: 3D-Stereo-Live-Streaming-Software-Setup

In diesem Projekt soll ein Stereoskopisches Streaming-Setup entwickelt werden.

Der Schwerpunkt soll also hier auf Systemkonfiguration und Softwareentwicklung liegen.

  • Erarbeiten Grundlagen Stereoskopie
  • Erarbeiten Grundlagen Live Streaming
  • Systemvoraussetzungen Sender (Encoder) – Empfänger (Player)
  • Systemaufbau
  • Softwarekomponenten

 

Projektziel
Entwicklung / Aufbau eines Prototyp-Setups eines 3D-Livestreams mit 2 Kameras mit Wiedergabe über ein 3D-Display

Zielgruppe
Entwickler/Systemintegratoren, die ein 3D-Setup entwickeln und eine 3D-Produktion technisch begleiten

Stand der Technik
Stereo-Kamera-Setups
3D-Display-Technologie
Encoding- und Streaming-Software
Streaming-Server

Projektinnovation
Integration neuester Encoding- Streaming, Kamera- und Displaytechnologien

Herausforderungen/Risiken
Alle Komponenten müssen zusammenspielen: 3d-Kamera/Display, Streaming-Setup, usw. Bei Ausfall einer Komponente könnte das Gesamtsystem ausfallen. Aufteilung auf Sender/Empfänger möglich, oder Simulation der Kameras mit voraufgenommenen 3D-Files

Meilensteine/Arbeitspakete

 

 

Projektvorschlag MPEG-DASH

In diesem Projekt sollen Softwarekomponenten für den neuen Streaming-Standard MPEG DASH entwickelt werden.

  • Grundlagen Live Streaming/Conferencing
  • Probleme mit bisherigen Verfahren
  • HTTP Live Streaming (HLS, HDS, Smooth Streaming)
  • Wofür dient MPEG DASH als Lösungsansatz
  • Implementierung eines Software-Prototypen

Softwareplattform:

Windows, MacOS, Linux

Techniken:

C/C++