3D-gedruckte Kopfsimulatoren unterhalten sich und hören einander zu

Zur Entwicklung von Algorithmen für Hörgeräte ist das Nachstellen von Szenen nötig. Das kann auch mit realistischen Kopfsimulatoren bewerkstelligt werden.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen

(Bild: Augmented Listening Laboratory (Screenshot))

Lesezeit: 3 Min.

Das Augmented Listening Laboratory der University of Illinois in den USA hat zur Erforschung der menschlichen Klangwahrnehmung und zur Entwicklung fortschrittlicher Audiotechnik einen 3D-gedruckten realistischen humanoiden Kopf entwickelt, der sprechen, zuhören und sich bewegen kann. Das teilten die Wissenschaftler am Montag auf dem 184. Meeting of the Acoustical Society of America mit. Mit den Kopfsimulatoren sollen Gruppensituationen nachgestellt werden, um etwa Hörgeräte zu entwickeln, die ein realistischeres Hörerlebnis schaffen.

Hörgeräte sind nur so gut, wie die implementierten Algorithmen, die das menschliche Gehör verbessern sollen. Um möglichst optimal angepasste Algorithmen entwickeln zu können, müssen die akustischen Eigenschaften eines menschlichen Kopfes möglichst genau berücksichtigt werden. Der Algorithmus bewertet dabei den Unterschied zwischen der Ankunftszeit des Schalls an jedem Ohr und der Amplitude des Schalls. Nur so kann ein möglichst natürliches Hören entstehen.

Eine besondere Herausforderung bei der Entwicklung von solchen Hör-Algorithmen ist die akustische Erfassung von Sprache in Gruppengesprächen wie beispielsweise auf Partys. Hier finden viele unterschiedliche Gespräche gleichzeitig statt, sodass die Verstärkung des richtigen Schalls knifflig ist.

Um solche Szenarien zur Entwicklung von Hör-Algorithmen nachzustellen, werden viele menschliche Probanden benötigt, die sich stundenlang unterhalten. Dies ist für Versuchspersonen anstrengend, zumal sie sich zwischen und während der Aufnahmen ruhig zu verhalten haben, um keine unerwünschten Auswirkungen auf die Schalldrücke zu bekommen.

Die Forscher sind deshalb bestrebt, eine möglichst hohe Kontrolle über die Szene zu haben. Kopfsimulatoren machen das möglich. Sie können Personen simulieren und Parameter können während des laufenden Experimentes verändert werden. Dabei ist es möglich, die Köpfe in Bewegungen zu versetzen, etwa um Nackenbewegungen zu simulieren.

Dazu haben die Forschenden mehrere Köpfe aus 3D-gedruckten Teilen gebaut. Sie lassen sich zu einem geringen Preis herstellen. Das Kopfdesign ist quelloffen und kann auch von anderen Teams zu Forschungszwecken heruntergeladen, ausgedruckt und genutzt werden. Den Wissenschaftlern ist wichtig, dass möglichst viele Wissenschaftler die Köpfe barrierefrei nutzen können.

Die detailreichen Ohren haben die Forscher mit Mikrofonen ausgestattet. Sie erlauben es, das menschliche Gehör zu simulieren. Zugleich funktionieren sie auch zusammen mit In-Ear-Kopfhörern. Die Köpfe können darüber hinaus "sprechen". Ein mundähnlicher Lautsprecher, die "Talkbox", ahmt die menschliche Stimme nach.

Die Köpfe sind auf einer Plattform befestigt, die eine Bewegung des Kopfes in alle Richtungen ermöglicht – inklusive Nickbewegungen. Dadurch ist es möglich, den Kopf realistisch zu bewegen und Szenen genau nachzustellen. Das Augmented Listening Laboratory hat eine Reihe weiterer Systeme entwickelt, um etwa auch das Gehen sowie komplexere Bewegungen zu simulieren.

(olb)