Dies läse ich gern selbst nach, kannst Du mir bitte eine Quellenangabe liefern?
Gern, nur darf leider keine urls einbetten... sollte wohl mehr rumspammen, dann kriege ich die 100 Posts schneller zusammen
Ich habe auf die Schnelle nicht das Original das ich damals gesehen hatte gefunden, aber das hier präsentierte Experiment ist neuer und geht sogar noch weiter. Hier geht es nicht mehr um einzelne Bilder sondern um ein gezeigtes Video.
Wärst Du so nett so nett es für die anderen einzubetten?
youtube.com/watch?v=6FsH7RK1S2E
Falls jemand interessiert ist, aber kein Englisch versteht, in aller Kürze: Sie haben ihren Probanden Videos gezeigt und gemessen was ein bestimmter Teil des Sehzentrums währenddessen für Aktivität zeigt. Mit den Daten haben sie eine Art grobes "Wörterbuch" geschaffen um die Hirnaktivität wieder in Bilder zurück zu übersetzen.
Ab Minute 1:47 sieht man links im Bild, dann ein neues Video das man anschließend gezeigt hat und rechts das was der Computer aus der Hirnaktivität rekonstruiert hat.
youtube.com/watch?v=KMA23JJ1M1o
hier sieht man etwas "deutlicher"
wie das funktioniert.
Oben Links ist das neue Video.
Die drei Zeilen darunter sind Rekonstruktionen von 3 verschiedenen Personen. Ganz links dabei die rekonstruierten Videos und rechts jene Videos mit denen das System trainiert hat und gewertet hat, dass diese den Messwerten der Hirnaktivität am besten entsprächen. Laut Beschreibung wurden zum Training des Systems 5000 Stunden zufällige Youtube-Schnipsel verwendet, die nicht in dem am Ende gezeigten neuen Video vor kamen.
Und zum weiter nachlesen:
Die Seite der Forschergruppe:
sites.google.com/site/gallantlabucb/publications/nishimoto-et-al-2011
Und hier der direkte Link zum Report:
sites.google.com/site/gallantlabucb/archive/2011a.Nishimoto.etal.pdf?attredirects=0
Das komplette Paper ist leider nur für Geld zu haben, aber solange sich hier niemand seinen eigenen Traumrecorder oder so basteln will, wahrscheinlich auch nicht von Nöten