[Tutorial] Webcam-Livestreaming mit dem Raspberry Pi

Hallo zusammen!

Heute wollen wir verschiedene Möglichkeiten vorstellen, wie man einen Livestream vom Raspberry Pi aus versenden kann. Wir setzen hier eine “normale” USB-Webcam voraus, nicht die spezielle Pi-Cam.

Vorneweg möchten wir noch eine Bemerkung zu mjpeg-Streams machen. Eigentlich sind sie eine relativ gute Lösung, um insbesondere mit wenig CPU-Aufwand auf dem Pi zu brauchbaren Ergebnissen zu kommen.

Allerdings ist das Format scheinbar nicht wirklich standardisiert, d.h. ein mjpeg-Stream von motion (s.u.) wird von Chrome nicht angezeigt, einer von mjpg_server aber schon – so zumindest unsere Erfahrung. Internet Explorer zeigt gar keine an, Firefox alle. (Eine mögliche Lösung.)

Webm- und Ogg-Streams haben zwar den Vorteil von allen modernen Browsern angezeigt zu werden, ohne dass ein zusätzlicher Aufwand betrieben werden müsste, aber der kleine Pi kommt ganz schön ins Schwitzen beim Berechnen des Streams; schon wenn er nur das macht, stockt der Stream und noch irgendwas anderes gleichzeitig auf dem Pi laufen zu lassen, wird dann undenkbar.
Aber genug der Vorrede.

1) ffserver und ffmpeg

Hier müssen wir vorrausschicken, dass dies zwar die wohl flexibelste und leistungsfähigste Methode ist, aber leider hat sie für den Pi einen zu hohen Ressourcenverbrauch bzw. der Pi ist herfür zu schwach. Hiermit ist es möglich alle erdenklicken Arten von Stream zu senden (webm, ogg, asf, swf..), was aber mit erheblichem Rechenaufwand verbunden ist. Gerade webm und ogg wären aber an sich interessante Varianten, da moderne Browser sie ohne zusätzliche PlugIns etc. direkt abspielen können (s.o.).

Aber wir schreiben diese Möglichkeit trotzdem mal auf, denn vielleicht haben wir einfach zu wenig rumprobiert und man kann Einstellungen finden, mit denen das flüssig auch vom Pi aus läuft. Bitte melden, wer eine Möglichkeit kennt 🙂

Da das ffmpeg-Paket, dass man über das Raspbian-Paketmanagement installieren kann, nicht die entsprechenden Codecs mitbringt, muss man erstmal ffmpeg auf dem Pi selber bauen (sorry, aus Lizenzgründen können wir das erhaltene deb nicht veröffentlichen; das Kompilieren dauert aber auch nur ca. 5h..).
Wir haben uns an dieser Anleitung orientiert.

Zusammengefasst heißt das:
[spoiler]

sudo aptitude update
sudo aptitude -y install autoconf automake build-essential git libass-dev libgpac-dev
libsdl1.2-dev libtheora-dev libtool libva-dev libvdpau-dev libvorbis-dev libx11-dev
libxext-dev libxfixes-dev pkg-config texi2html zlib1g-dev
checkinstall yasm libmp3lame-dev libopus-dev
mkdir ~/ffmpeg_sources
cd ~/ffmpeg_sources
git clone –depth 1 git://git.videolan.org/x264.git
cd x264
./configure –prefix=“$HOME/ffmpeg_build“ –bindir=“$HOME/bin“ –enable-static
make
sudo checkinstall
cd ~/ffmpeg_sources
git clone –depth 1 git://github.com/mstorsjo/fdk-aac.git
cd fdk-aac
autoreconf -fiv
./configure –prefix=“$HOME/ffmpeg_build“ –disable-shared
sudo checkinstall
cd ~/ffmpeg_sources
git clone –depth 1 http://git.chromium.org/webm/libvpx.git
cd libvpx
./configure –prefix=“$HOME/ffmpeg_build“ –disable-examples
make
sudo checkinstall
cd ~/ffmpeg_sources
git clone –depth 1 git://source.ffmpeg.org/ffmpeg
cd ffmpeg
PKG_CONFIG_PATH=“$HOME/ffmpeg_build/lib/pkgconfig“
export PKG_CONFIG_PATH
./configure
–extra-cflags=“-I$HOME/ffmpeg_build/include“ –extra-ldflags=“-L$HOME/ffmpeg_build/lib“
–bindir=“$HOME/bin“ –extra-libs=“-ldl“ –enable-gpl –enable-libass –enable-libfdk-aac
–enable-libmp3lame –enable-libopus –enable-libtheora –enable-libvorbis
–enable-libvpx   –enable-libx264 –enable-nonfree –enable-x11grab
make
sudo checkinstall

[/spoiler]

Geschafft 🙂

Nun heißt es eine ffserver.conf-Datei den eigenen Ansprüchen entsprechend zu erzeugen. Anhaltspunkte dafür finden sich hier.

Prinzipiell funktioniert das mit ffserver so: ffserver selbst wird durch eine angegebene Config-Datei eingestellt und hört auf einen dort angegeben Port und stellt entsprechend der Konfiguration verschiedene Streams parat; eine ffmpeg-Instanz muss dann gestartet werden und dem ffserver den Videostream schicken, der dann ggfs. umgewandelt und weitergeschickt wird. D.h. man braucht eine Config-Datei und Befehle, um ffserver und ffmpeg entsprechend zu starten.

Hier geben wir mal drei Konfigurationen und entsprechende Befehlszeilen als Beispiel vor:


Für WEBM:

[spoiler]
Inhalt von ffserver.webm.conf:

Port 8090
BindAddress 0.0.0.0
MaxClients 10
MaxBandwidth 50000
NoDaemon
<Feed webcam.ffm>
file webcam.ffm
FileMaxSize 10M
</Feed>
<Stream webcam.webm>
Feed webcam.ffm
Format webm
AudioCodec vorbis
AudioBitRate 64
VideoCodec libvpx
VideoSize 368×288
# VideoFrameRate 25
VideoFrameRate 4
AVOptionVideo flags +global_header
AVOptionVideo cpu-used 0
AVOptionVideo qmin 10
AVOptionVideo qmax 42
AVOptionVideo quality good
AVOptionAudio flags +global_header
PreRoll 15
StartSendOnKey
VideoBitRate 400
</Stream>

Aufruf:

$ ffserver -f ffserver.webm.conf & ffmpeg -v verbose -r 5 -s 320×240 -f video4linux2 -i /dev/video0 -f lavfi -i aevalsrc=0 -c:a libmp3lame http://localhost:8090/webcam.ffm

[/spoiler]


Für OGG:

[spoiler]
Inhalt von ffserver.ogg.conf:

Port 8090
BindAddress 0.0.0.0
MaxClients 10
MaxBandwidth 50000
NoDaemon
<Feed webcam.ffm>
file webcam.ffm
FileMaxSize 10M
</Feed>
<Stream webcam.ogg>
Feed webcam.ffm
Format ogg
VideoFrameRate 24
VideoSize 576×432
VideoBitRate 512k
VideoBufferSize 1024
AudioSampleRate 44100
AudioChannels 2
AudioBitRate 64k
AudioCodec libvorbis
VideoCodec libtheora
VideoQMin 1
VideoQMax 31
VideoGopSize 12
Preroll 0
AVOptionVideo flags +global_header
AVOptionAudio flags +global_header
</Stream>

Aufruf:

$ ffserver -f ffserver.ogg.conf & ffmpeg -v verbose -r 5 -s 640×480 -f video4linux2 -i /dev/video0 -f lavfi -i aevalsrc=0 -c:a libvorbis http://localhost:8090/webcam.ffm

[/spoiler]

Für MJPG:

[spoiler]
Inhalt von ffserver.mjpg.conf:

Port 8090
BindAddress 0.0.0.0
MaxClients 10
MaxBandwidth 50000
NoDaemon
<Feed webcam.ffm>
file webcam.ffm
FileMaxSize 10M
</Feed>
<Stream webcam.mjpeg>
Feed webcam.ffm
Format mpjpeg
VideoFrameRate 1
#VideoBitRate 2048
#VideoBufferSize 4096
VideoSize 320×240
VideoQMin 3
VideoQMax 10
NoAudio
Strict -1
</Stream>

Aufruf:

$ ffserver -f ffserver.webm.conf & ffmpeg -v verbose -r 5 -s 320×240 -f video4linux2 -i /dev/video0 -f lavfi -i aevalsrc=0 -c:a libmp3lame http://localhost:8090/webcam.ffm

[/spoiler]

 

 

2) motion

Motion ist schnell eingerichtet und verbraucht mit durchschnittlich rund 5% CPU-Last recht wenig Ressourcen. Von Nachteil ist, dass man hiermit nur mjpeg-Streams erzeugen kann.

Zum Einrichten installiert man:

$ sudo aptitude install motion fswebcam

Und ändert dann den Inhalt von /etc/default/motion zu:

start_motion_daemon=yes

In der Datei /etc/motion/motion.conf kann man weitere Einstellungen vornehmen. Geändert haben wir aber erstmal nur folgende Zeilen:

daemon on

webcam_localhost off

Die letzte Zeile sorgt dafür, dass der motion-Server auch außerhalb des Pi aufrufbar ist, dann ist der Stream unter: http://raspberrypi.local:8081/ zu sehen.

 

 

3) mjpg_server

Für diese Lösung gibt es kein fertiges Paket und man muss wieder selbst kompilieren. Ist aber in diesem Fall schnell und einfach erledigt und man wird mit einer sehr Ressourcen sparenden Lösung belohnt.

mjpg_server bauen & installieren mit folgenden Befehlen:

$ sudo aptitude install subversion imagemagick libv4l-dev libjpeg8-dev
$ svn checkout svn://svn.code.sf.net/p/mjpg-streamer/code/ mjpg-streamer-code
$ cd mjpg-streamer-code/mjpg-streamer
$ make USE_LIBV4L2=true all
$ sudo checkinstall

Mit folgendem Befehl kann man schauen, welche Pixel-Formate von der angeschlossenen Webcam geliefert werden können. In der Regel ist das YUYV und MJPG:

$ uvcdynctrl -f -d video0

 

Und dann starten mit (die Werte natürlich denen der Webcam anpassen):

$ mjpg_streamer -i „/usr/local/lib/input_uvc.so -d /dev/video0 -r 640×480 -f 1“ -o „/usr/local/lib/output_http.so -p 8090 -w /var/www/mjpg_streamer“

Danach ist der Stream unter der IP des Raspberry und Port 8090 erreichbar. Ein beispielhafter Aufruf im Browser könnte dann folgendermaßen aussehen (IP anpassen):

http://127.0.0.1:8090/?action=stream

Wenn die Cam nur YUYV unterstützt, muss beim Aufruf vom mjpg_server noch das „-y“-Flag gesetzt werden. Er übernimmt dann die Umwandlung. Das kostet allerdings ca. 15-20% CPU-Last; unterstützt die Cam direkt MJPG, dann verbraucht dieser Server fast keine CPU-Ressourcen.

 

Und nun: Viel Spaß beim Streamen 😉

 

[Last Edit: 18.06.2014]

18 Kommentare zu „[Tutorial] Webcam-Livestreaming mit dem Raspberry Pi

  1. Hallo,
    vielen Dank für das super Tutorial!!! Echt klasse gemacht!!!

    Leider funktioniert die Lösung mit mjpg_server bei mir nicht, da ich bei „make USE_LIBV4L2=true all“ folgende Fehlermeldung erhalte:
    make: *** No rule to make target `all‘. Stop.

    Wenn ich den Befehl mit sudo eingebe erhalte ich folgende Fehlermeldung:
    make: *** No targets specified and no makefile found. Stop.

    Mache ich hier was falsch oder fehlt hier noch was?

    Hier noch ein paar Daten:
    Hardware: Raspberry Pi Modell B
    System: Raspbian Wheezy (Version vom 07.01.2014)

    Wäre für jede Hilfe Dankbar

    MfG
    BotLike

    • Hallo BotLike,
      schön, dass es Dir gefällt 🙂
      Ich vermute, Du bist nicht in das Verzeichnis gewechselt, in das Du die mjpg-streamer-Quellen geladen hast? Dem Tutorial entsprechend sollte das „mjpg-streamer-code“ heißen und in dem Verzeichnis sein, in dem Du den „svn checkout …“-Befehl ausgeführt hast.
      (Der Schritt war aber auch nicht erwähnt.. Danke für den Hinweis, ich werde das ergänzen.)

      Gruß gibbsnich

      • Hallo gibbsnich,
        bin leider erst heute dazu gekommen das ganze erneut zu testen, leider bringt es nichts in den Ordner zu wechseln…

        Hier ein kleiner Auszug:
        A mjpg-streamer-code/mjpeg-client/bin/win32_upx
        A mjpg-streamer-code/mjpeg-client/bin/win32_upx/viewer.exe
        U mjpg-streamer-code
        Checked out revision 182.
        pi@raspberrypi ~ $ cd mjpg-streamer-code
        pi@raspberrypi ~/mjpg-streamer-code $ make USE_LIBV4L2=true all
        make: *** No rule to make target `all‘. Stop.

  2. OK ich habs nun.. 😀

    mann muss nicht in den Ordner „mjpg-streamer-code“ wechseln, sondern in den unter Ordner „mjpg-streamer“ also sprich die Anleitung würde dann so aussehen:

    sudo aptitude install subversion imagemagick libv4l-dev libjpeg8-dev
    svn checkout svn://svn.code.sf.net/p/mjpg-streamer/code/ mjpg-streamer-code
    cd mjpg-streamer-code/mjpg-streamer
    make USE_LIBV4L2=true all

    Wer nun wie ich raspian als system nutzt muss noch checkinstall mit folgendem Befehl installieren:
    sudo aptitude install checkinstall

    Anschließend mit der Anleitung weitermachen mit:
    sudo checkinstall

    Allerdings kann nun dass package nicht erstellt werden:

    Copying files to the temporary directory…OK

    Stripping ELF binaries and libraries…OK

    Compressing man pages…OK

    Building file list…OK

    Building Debian package… FAILED!

    *** Failed to build the package

    Das Logfile spuckt folgende Meldung aus:
    dpkg-deb: error: parsing file ‚/var/tmp/tmp.DzTO0pbhKF/package/DEBIAN/control‘ near line 7 package ‚mjpg‘:
    error in Version string ’streamer-1′: version number does not start with digit
    /var/tmp/tmp.DzTO0pbhKF/dpkgbuild.log (END)

    Irgendeine Idee?

    MfG
    BotLike

    • Hallo BotLike,
      dass *ich* da noch einen Extra-Ordner hinzugefügt hatte, hatte ich wohl vergessen -.- Schön, dass das nun geklappt hat!
      checkinstall fragt direkt nach dem Start ein paar Eigenschaften der zu installierenden Software ab. Eigentlich sind alle Defaults erstmal gut, nur bei der Versionsnummer darf nur eine Zahl (und Punkte . und das „Minus“ -, glaube ich) stehen. Das übernimmt checkinstall falsch und man muss diesen Wert (wie in diesem Beispiel) oft noch anpassen.
      LG, gibbsnich

  3. Hallo,

    Danke erstmal für dein tolles Tutorial, aber mal eine Frage – funktionieren bei Dir die Streams wenn Du sie via Browser aufrufst? (gerade webm und ogg).

    Ich weiß das ist nicht so ’ne tolle Frage aber ich erkläre Dir am Besten mal was ich vor habe, und zwar möchte ich via RaspPi ein Videostream machen, Sprich über Webcam (/dev/video0) einlesen, und es dann Streamen und via HTML5 Player ausgeben und da bietet sich ja webm bzw. ogg sehr gut an.

    Nur ladet bei mir z.B der Stream gar nicht, oder spielt es eher schlecht als recht ab auch wenn ich deine Tutorials 1:1 anwende. 🙂

    • Also geht gar nicht oder eher schlecht? 😉
      Ich zitiere mal den Artikel — Absatz „ffmpeg“:

      Hier müssen wir vorrausschicken, dass dies zwar die wohl flexibelste und leistungsfähigste Methode ist, aber leider hat sie für den Pi einen zu hohen Ressourcenverbrauch bzw. der Pi ist herfür zu schwach. […]

      Aber wir schreiben diese Möglichkeit trotzdem mal auf, denn vielleicht haben wir einfach zu wenig rumprobiert und man kann Einstellungen finden, mit denen das flüssig auch vom Pi aus läuft. Bitte melden, wer eine Möglichkeit kennt 🙂

      D.h. es wird darauf hinauslaufen, dass Du an den Einstellungen rumspielen musst und schauen musst, ob dabei was rauskommt, was a) schnell genug berechnet wird, b) ausreichende Qualität hat. Dabei kann auch rauskommen, dass Du mit dem Pi eine zu schwache Plattform für Deine gewünschte Anwendung gewählt hast.
      Die relevanten Einstellungen wären wohl v.a.:


      VideoSize 368×288
      VideoFrameRate 4
      AVOptionVideo qmin 10
      AVOptionVideo qmax 42
      AVOptionVideo quality good
      VideoBitRate 400

      Ich würde mich freuen, wenn Du uns Deine Einstellungen mitteilst, wenn Du gute gefunden hast!

      So long..

  4. Soweit alles ok, nur woher kommt eigentlich das Device /dev/video0? Bei mir gibt es das nach der Installation nicht.
    Die Kamera funktioniert, ich habe mit raspistill ein Bild aufnehmen können?
    Hast Du da eine Idee?
    Gruß und Dank

  5. Hallo,
    bisher habe ich nur den zweiten Weg probiert, also mit motion. Eine Frage vorweg: welche Version vom Pi habt Ihr genommen? Und wie waren die Qualitätseinstellungen (Auflösung, Wiederholrate).
    Im Artikel steht, dass nur etwa 5% CPU-Last erzeugt wird, dass ist bestimmt auf Standardauflösung und -Wiederholrate bezogen. Bei mir ist das deutlich mehr, allerdings wollte ich etwas höhere Qualität. Ich habe das ganze mit einem RPi B und einem RPi B2 probiert, mit ähnlichen Ergebnis. Wenn die Bildänderung zu groß (Licht im Raum an/ausschalten, Kamera schwenken, …) ist, kommt es zum Crash. Die Betriebs-LED der Kamera geht aus und bei htop verschwinden die Einträge. Ich weiß nicht, warum das passiert. Beim RPi B2 gehts automatisch weiter, beim RPi B muss ich den Dienst neustarten. Die Kamera ist eine Microsoft VX-800.
    Die voreingestellte Auflösung (352×288) ist mir zu gering, 640×480 sollten es schon sein. Und 25fps wäre auch gut. Schafft dass der Pi generell nicht oder habe ich irgendetwas ver-konfiguriert? Prinzipiell funktioniert es ja (Standardauflöung und 25fps kommen flüssig und mit nur geringer Verzögerung; 640×480 unf 25fps führen zu einem merklichen Delay)
    Wofür wird eigentlich fswebcam benötigt, Kamera starten und Streamen ging glaube ich auch ohne (habe fswebcam erst später installiert, vielleicht war aber auch eine alte Version schon drauf). Ich habe was von wegen Bilder speichern gelesen.
    Vielleicht gibt es mittlerweile auch andere Möglichkeiten, einen Videostream mit „besserer“ Auflösung und 25fps zu bekommen.
    Vielen Dank für den Artikel und Eure Zeit
    Peter

    p.s.: verwendet habe ich auf beiden RPi raspbian-jessie (2015-09-24, update/upgrade, nur motion, htop und fswebcam installiert, läuft ohne Desktop, per SSH/Browser über Kabelnetzwerk)

    letzte Variante der Conf:
    daemon on
    stream_localhost off
    framerate 25
    stream_maxrate 25
    width 640
    height 480

    • Hi Peter,

      danke Dir für Deinen Kommentar!
      Ich hatte es damals auch mit dem B-Modell getestet. Wie beschrieben hatte ich das damals mit den Default-Werten am Laufen, also auch mit geringer Auflösung. War für meine Zwecke dann OK, deswegen kann ich eigentlich gar nicht viel dazu sagen, wie die Performance mit veränderten Einstellungen ist. Da wirst Du wohl ein wenig rumprobieren müssen. Da kann ich Dich ansonsten nur auf die entsprechende man-Page von motion verweisen. Eine Idee wäre vielleicht noch, mal die neueste Version von motion im Quelltext runterzuladen und die Software mal selbst zu kompilieren –vielleicht kannst Du auch bei den Compiler-Flags die Optimierungen hochschrauben; vielleicht wurden Optimierungen eingebaut, die noch nicht in der von Distro mitgelieferten motion-Variante enthalten sind. Ich weiß aber nicht, ob ich mir davon allzu viel versprechen würde; auf jeden Fall keine Wunder, der Pi ist halt nicht das Schnellste. Wie immer gilt: Probieren geht über studieren 😉
      Auch wegen des Crashs kann ich leider nur spekulieren; das kann viele Gründe haben.
      Am besten Du startest motion mal mit -d und schaust Dir die Debug-Ausgaben an bzw. postest die Ausgabe nochmal hier, wenns Dir nichts sagen sollte.

      Viel Spaß & Gruß
      gibbs

  6. Nachtrag:
    Versuch Nummer Drei auf einem Shuttle XS35GSV3L (mit 4GB RAM und Ubuntu 14.04.3) bringt ein sehr zufriedenstellendes Ergebnis! Die Hardware lässt sich natürlich nicht mit einem RPi vergleichen, ist ja auch einiges teurer/größer.
    aktueller Stand:
    Auflösung: 640×480
    50fps (ist eingestellt als Schranke, keine Ahnung, was wirklich kommt)
    Das Video kommt flüssig, mit minimaler Verzögerung, es gibt keine Abstürze, egal, was ich mit der Kamera oder dem Licht im Raum anstelle.
    Habt Ihr noch Ideen, wie das mit dem RPi besser klappt oder kann ich die Hoffnung dazu verbuddeln?

    Viele Grüße und Danke =)

    p.s.:

    genauere Infos zum Gerät:
    http://www.hardwareversand.de/Intel/77841/Shuttle+XS35GSV3L+schwarz.article

    @Mods: könnt Ihr meine beiden Kommentare bitte mergen

  7. Hallo!

    Super Guide da ich noch Anfänger bin hab ich dennoch meine Probleme…

    2) motion

    hab alles nach Anleitung bearbeitet habe aber das Problem das ich mir den Stream nicht über meinen Laptop im local anzeigen lassen kann?

    Wie macht man sowas ?

    • Hallo,

      wenn Du alles nach Anleitung gemacht hast, sollte es schon funktionieren 😉
      Wichtig sind die Änderungen in den genannten Dateien: sie a) aktivieren das motion-Programm als Dämon, d.h. es läuft im automatisch im Hintergrund; b) sorgen dafür, dass der vom Dämon erzeugte Stream „nach außen“ erreichbar gemacht wird.
      Also in /etc/default/motion:
      start_motion_daemon=yes
      In /etc/motion/motion.conf:
      daemon on
      webcam_localhost off
      stream_port 8081
      (Da stehen jeweils noch andere Sachen drin, dies sind nur die Zeilen, die auf jeden Fall so sein müssen und geändert werden müssen. Außer die stream_port-Zeile, diese sollte schon vorher so drin gestanden haben.)
      Wenn Du diese Änderungen gemacht hast, ist es wahrscheinlich am einfachsten den Pi neuzustarten, damit motion entsprechend gestartet wird.
      Dann musst Du wissen, welche IP-Adresse dein Pi von Deinem Router bekommen hat (wahrscheinlich sowas wie 192.168.1.111) — das ist je nach Router/Konfiguration unterschiedlich. Wenn dann Dein Router nicht so eingestellt ist, dass er Verkehr zwischen Netzgeräten innerhalb Deines Netzes verbietet (jaja, sowas solls geben, keine Ahnung wozu 😉 ), solltest Du unter z.B. http://192.168.1.111:8081 (im Browser Deiner Wahl einzugeben) den Stream betrachten können.
      Wenn das nicht tut: Versuche zuerst, ob du den Pi überhaupt erreichen kannst (ping 192.168.1.111) und dann ob der Port (z.B. 8081) offen ist (z.B. mit einem Tool wie nmap, Aufruf wäre: nmap -sV -p 8081 192.168.1.111, glaube ich).

      Viel Glück!

      • Gut bin nochmal alles durch gegangen,

        habe den Port geändert in den config

        Adresse die ich über Firefox ansurfe

        196.168.1.2:1470

        Dort kommt nur kurz nen weißes Fenster und wechselt auf einen Verbindungsfehler

        Meldung SSH-2.0-OpenSSH_6.0p1 Debian-4+deb7u2

        • EDIT:

          192.168.1.2 lautet die IP des PI

          Diese ist fest verankert im Router durch feste IP (MAC)

          Anpingen ließ sich der PI im cmd nicht, schonmal schlecht ^^
          Es anwortete zwar was aber das war mein Druckerserver ^^

  8. EDIT 2

    OK jetzt lässt er sich anpingen !

    NMAP Bericht :

    Starting Nmap 7.00 ( https://nmap.org ) at 2015-12-02 19:59 Mitteleuropäische Zeit

    Nmap scan report for unknownE8DE27055D77 (192.168.1.2)

    Host is up (0.036s latency).

    PORT STATE SERVICE VERSION

    1470/tcp open ssh OpenSSH 6.0p1 Debian 4+deb7u2 (protocol 2.0)

    MAC Address: E8:DE:27:05:5D:77 (Tp-link Technologies)

    Service Info: OS: Linux; CPE: cpe:/o:linux:linux_kernel

    Service detection performed. Please report any incorrect results at https://nmap.org/submit/ .

    Nmap done: 1 IP address (1 host up) scanned in 5.76 seconds

    Sollte also gehen ??? Macht er aber nicht :/

  9. Hallo schade das es keine Edit funktion gibt

    Ich glaube der Fehler ist gefunden
    Hatte auf Port 1470 den SSH für Putty
    Habe jetzt den Port 8081 in der motion.conf eingegeben und den
    im Router als HTTP (TCP) freigegeben

    jetzt bekomme ich folgende Meldung auf NMap

    Starting Nmap 7.00 ( https://nmap.org ) at 2015-12-02 20:37 Mitteleuropäische Zeit

    Nmap scan report for unknownE8DE27055D77 (192.168.1.2)

    Host is up (0.074s latency).

    PORT STATE SERVICE VERSION

    8081/tcp closed blackice-icecap

    MAC Address: E8:DE:27:05:5D:77 (Tp-link Technologies)

    Service detection performed. Please report any incorrect results at https://nmap.org/submit/ .

    Nmap done: 1 IP address (1 host up) scanned in 1.88 seconds

    Ich kann damit leider wenig anfangen 😀

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.