Informationstechnik und Behinderung



Elektronische Reisehilfen für Blinde:

Einführung und neue Entwicklungen

Jochen Schneider

Quelle: FIfF-Kommunikation, 13. Jahrgang, Heft 2.



Einleitung

Die unabhängige Mobilität als FußgängerIn stellt ein wichtiges Moment der Selbständigkeit dar. Behinderungen können diese Mobilität einschränken. In diesem Beitrag werden technische Möglichkeiten der Unterstützung der Mobilität blinder FußgängerInnen beschrieben, zusammen mit einer Einführung in grafische Medien für Blinde. Neben traditionellen Hilfsmitteln soll es dabei vor allem um solche gehen, die mit Hilfe von Computern umgesetzt werden.

Interaktive Systeme zur Unterstützung Blinder fallen in den Bereich "außergewöhnlicher Mensch-Computer-Interaktion" (so der Titel eines Buches zum Thema, s. Edwards 1995). Interaktive Computersysteme sind eben auch in anderen als den klassischen Büroszenarien nützlich.[1]

Neben der Motivation, (langfristig) einen Beitrag zur Verbesserung der Lebensqualität von Angehörigen der genannten Zielgruppe zu leisten, gibt es weitere Gründe, auf dem Gebiet der Unterstützung der Mobilität Blinder zu forschen: Da die Unterstützung der Mobilität auf der Vermittlung räumlicher Informationen basiert, lassen sich aus der Darstellung dieser Informationen für Blinde neue Erkenntnisse über Inhalte gewinnen, die sonst nur visuell dargestellt werden. Es besteht weiterhin die Möglichkeit, neue Medien oder Erweiterungen bekannter Medien für klassische Inhalte zu entwerfen, wie wir bei der Beschreibung meiner eigenen Arbeit, der virtuellen taktilen Karten, noch sehen werden.

Weil der Begriff "blind" nur die Abwesenheit des Sehsinnes kennzeichnet, gibt es "die" oder "den" BlindeN noch weniger als "die" oder "den" BüroarbeiterIn der klassischen Softwareentwicklung. Nach dem Einschränkungsgrad des Sehvermögens werden Blinde und Sehbehinderte unterschieden: nach Schätzungen des Deutschen Blinden- und Sehbehindertenverbandes gibt es 155.000 Blinde und ca. sechsmal so viele Sehbehinderte in der Bundesrepublik. Wer Hilfsmittel selbst für stark Sehbehinderte entwickelt, sollte darauf achten, ihren noch so kleinen Sehrest zu nutzen.

Nach dem Zeitpunkt der Erblindung unterscheidet man mit Brambring & Schneider (1986) folgende Kategorien: (1) Geburtsblinde (Erblindung erfolgt vor Ende des ersten Lebensjahres), Frühblinde (vor dem Schuleintritt), Jugendblinde (vor Erreichen der Volljährigkeit), Späterblindete (Erblindung erfolgt bis zum 60. Lebensjahr) und Alterserblindete. Gut ein Drittel aller Blinden gehören zu den Alterserblindeten. Ihnen erschweren die altersgemäßen Einschränkungen der übrigen Sinne die Einstellung auf die neue Situation. Geburtsblinde haben hierzulande durchweg eine spezielle Blindenausbildung absolviert; sie beherrschen die Brailleschrift und kennen taktile Medien, etwa tastbare Stadtkarten. Späterblindeten wird oft ein besseres räumliches Vorstellungsvermögen gegenüber Geburtsblinden nachgesagt, empirisch läßt sich dies jedoch nicht bestätigen (Hollyfield & Foulke, 1983). Ihr Vorteil liegt unbestritten darin, daß sie als Sehende erzogen waren und nun, auch in ihrer blinden Zeit, die unter Sehenden als selbstverständlich hingenommenen Verhaltensweisen weiter durchführen, wie z.B. das Suchen nach Blickkontakt mit Gesprächspartnern.

Grafische Medien für Blinde

Taktile Darstellungen

Taktile (ertastbare) Darstellungen werden von Blinden aus ähnlichen Gründen benutzt wie gedruckte Darstellungen von Sehenden: weil Objekte vermittelt werden sollen, die abwesend, zu groß oder zu klein sind, es um die Vermittlung von physischen oder abstrakten Zusammenhängen geht oder um die geographischer Informationen. Ein Unterschied der beiden Modalitäten besteht darin, daß manche Objekte gesehen, aber nicht ertastet werden können, weil dies die Tastenden verletzen oder die Objekte beschädigen würde (Edman 1992, S. 8ff).

Taktile Skizzen können auf speziellen Zeichenbrettern mit Gummiüberzug erstellt werden, bei denen der Druck mit einem Stift zu einer Erhebung auf einer Plastikfolie führt. Solche Zeichenbretter stellen wichtige grafische Ausdrucks- und Lehrmittel für blinde Kinder dar. Dauerhafte taktile Darstellungen werden oft per Hand mit Papier, Pappe und Stoff in einem aufwendigen Prozeß hergestellt. Sie werden seltener vervielfältigt als gedruckte Darstellungen, weil auch das Vervielfältigen aufwendiger ist (es ist aber durchaus möglich, z.B. mittels Tiefziehen). Es gibt sogar eine dem Fotokopieren verwandte Technik der Vervielfältigung für einfache Darstellung auf Schwellpapier. Dabei wird spezielles Papier benutzt, das Harz enthält, der bei Erhitzung an den Stellen aufschwillt, die vorher geschwärzt wurden. Zur Erstellung einer taktilen Darstellung wird eine Vorlage zunächst mit einem Fotokopierer auf dieses Papier übertragen. Danach wird das Papier in einem speziellen Gerät erhitzt.

Weil der Tastsinn eine geringere Auflösung hat als der Sehsinn, müssen gedruckte Vorlagen bei der Übertragung auf taktile Medien angepaßt, v.a. vereinfacht werden. Dabei kann ein Computer helfen, wenn die Vereinfachung automatisierbar ist, wie es teilweise für Landkarten der Fall ist. Allgemeiner können CAD-Programme zum Modellieren taktiler Darstellungen benutzt werden, die entstandenen Modelle auch zum Ansteuern von Maschinen, die Vorlagen für die Vielfachproduktion taktiler Darstellungen liefern.

Von einem Computer angesteuerte Anzeigen für Punktschriftsymbole in Braille können auch für die Anzeige von Grafiken benutzt werden. Bisher sind jedoch großformatige Brailleanzeigen, die von Blinden in ähnlicher Weise wie ein Bildschirm von Sehenden benutzt werden könnten, nicht über das Prototypstadium herausgekommen. Dies ist v.a. deshalb problematisch, weil dadurch grafische Benutzungsoberflächen (GUIs) zunächst nicht von Blinden benutzt werden können, was ihnen das weitere Ausüben von Berufen z.B. in Callcentern oder als ProgrammiererInnen erschwert. Textbasierte Programme unter MS-DOS können mittels sogenannter Screenreader von Blinden benutzt werden. Dabei wurden die Texte aus dem Bildschirmspeicher gelesen und über synthetische Sprache oder in Brailleschrift auf einem speziellen Display (Braille-Zeile) ausgegeben.

Die nichtvisuelle Darstellung ist inzwischen auch für GUIs möglich. Textliche Informationen werden dabei vor dem Rastern auf dem Bildschirm abgefangen und in sogenannten Off-Screen-Modellen gespeichert. Sie werden zusammen mit Informationen über Fensterpositionen u.ä. ebenfalls mittels Braille oder synthetischer Sprache ausgegeben. Betriebssysteme mit grafischen Benutzungsoberflächen stellen dafür Zugriffsroutinen bereit. Diese sind jedoch nur auf Standard-GUI-Komponenten eingerichtet, so daß z.B. Microsoft in bestimmten Programmen das Umstellen der Menüleiste erlaubt, damit sie mit der Zugriffssoftware für Blinde kompatibel bleiben. Aktuelle Systeme mit rein textlicher Oberfläche können leichter angepaßt werden. So liegt mit Blinux eine Linux-Distribution für Blinde vor, die u.a. einen Emacs mit Sprachausgabe als Benutzungsoberfläche enthält.

Hilfsmittel zur Unterstützung von Mobilität und Orientierung

Taktile Karten

Taktile (oder Relief-) Karten stellen als Landkarten für Blinde spezielle taktile Medien dar. Als Vorläufer von taktilen Karten können die aus Treibholz geschnitzten Karten angesehen werden, die schon vor dreihundert Jahren von Inuit hergestellt wurden (Papanek 1995, 229ff). Sie wurden für die Navigation auf See hergestellt. Als taktile Darstellungen können sie auch im Dunkeln benutzt werden.

Neuere Untersuchungen haben gezeigt, daß taktile Karten im Vergleich zu verbalen Beschreibungen und selbst dem geführten Begehen eines Gebietes die beste Möglichkeit der Vermittlung geographischer Informationen an Blinde darstellen (Brambring & Weber, 1981; Espinosa et al., 1998). Leider besitzen taktile Karten auch einige Nachteile. Als taktile Darstellungen sind sie aufwendig herzustellen, oftmals nur per Hand. Wegen geringer Nachfrage sind taktile Karten nicht von jedem gewünschten Gebiet einfach oder überhaupt erhältlich. Aufgrund der schon erwähnten geringen Auflösung des Tastsinns im Vergleich zum Sehsinn wird für die Darstellung eines bestimmten Gebietes auf einer taktilen Karte mehr Platz benötigt als auf einer gedruckten Karte. Zusätzlich haben blinde einen höheren Informationsbedarf als sehende Fußgänger. Beschriftungen in Braille können schließlich nicht von allen Benutzenden der Karten gelesen werden und benötigen mehr Platz als gedruckte Beschriftungen.

Vor allem letzteres Problem kann durch Computerunterstützung gelindert werden, vorausgesetzt, die Informationen auf der taktilen Karte liegen auch als digitale Kartendaten vor. Dazu wird die taktile Karte auf ein Tasttablett gelegt. Das Tablett ist an einen Computer angeschlossen, der das durch die taktile Karte dargestellte Gebiet als digitale Kartendaten geladen hat. Ein Druck auf das Tablett durch die taktile Karte hindurch führt dann zur Ausgabe von Informationen über das entsprechende Objekt auf der Karte, z.B. den Namen einer Straße.

Holmes et al. haben untersucht, inwieweit eine taktile Karte durch ein Tasttablett mit akustischer Ausgabe ersetzt werden kann (1995). Dazu wurde zuerst eine taktile Karte, dann ein taktiles Gitter auf das Tablett gelegt bzw. das Tablett freigelassen. Die taktile Karte als Auflage hat dabei am meisten Informationen vermittelt, das taktile Gitter hat aber überraschend gut abgeschnitten, v.a. im Vergleich zu dem leeren Tasttablett.

Traditionelle Reisehilfen

Der weiße Langstock ist die am weitesten verbreitete Navigationshilfe für Blinde. Er erlaubt das Erkennen des Untergrundes durch Geräusche und Vibrationen und warnt frühzeitig vor Hindernissen (s. Harder et al. 1999). Er stellt gleichzeitig ein weltweit anerkanntes Verkehrszeichen für Blindheit dar. Speziell ausgebildete Blindenhunde können Halter an Hindernissen vorbei- und auf bekannten Wegen sogar vollständig führen. Untersuchungen haben gezeigt, daß das Begehen unbekannter Wege mit einem Hund zu weniger Streß führt als die reine Langstockbenutzung (ebd.).

Elektronische Reisehilfen

Elektronische Reisehilfen können entweder in der Umgebung montiert sein, von Blinden selbst getragen werden oder auf einem festinstallierten und einem tragbaren Teil aufbauen. Ampeln mit akustischer Meldung der Grünphase zählen zu der ersten, elektronische Mobilitätshilfen für den Nahbereich zu der zweiten Kategorie. Solche elektronischen Mobilitätshilfen ergänzen die Informationen, die durch den Langstock erhältlich sind, durch Informationen aus der (etwas) weiteren Umgebung. Manche von ihnen werden als Brille, andere als Stab in der Hand, andere auf dem Rücken oder um den Körper getragen, und einige von ihnen sind direkt am Langstock befestigt. Sie erfassen die Umwelt häufig durch das Aussenden von Ultraschall und zeigen das Auftauchen von Hindernissen akustisch oder taktil (Druck, Vibration) an. Dabei müssen Benutzende erst erlernen, wofür die Ausgabesignale und ihre Veränderungen stehen. Beispiele für diese Geräte sind der Sonic Pathfinder, der Mowat Sensor und KASPA (ebd.).

Im EU-Projekt MoBIC wurde eine Orientierung- und Navigationshilfe für blinde Fußgänger entwickelt. Die MoBIC-Komponente zur Reisevorbereitung dient dabei der Vermittlung eines Teilgebietes einer Stadt durch digitale Kartendaten, die in einen Computer geladen und interaktiv per Sprache ausgegeben werden. In dieser Komponente kann auch ein Weg ausgewählt und erkundet werden. Der Weg kann dann in das MoBIC-Navigationssystem geladen werden. Diese Komponente besteht aus einem tragbaren Computer mit einem Empfänger für das Satellitenpositionssignal GPS und ebenfalls Sprachausgabe (Strothotte et al. 1996). Ein Prototyp wurde erfolgreich getestet, ist aber noch nicht auf dem Markt.

Eine von der praktischen Bedeutung nicht zu unterschätzende Mobilitätshilfe stellt das Mobiltelefon dar. Damit können z.B. unterwegs Informationen eingeholt werden. Gängige Mobiltelefone sind jedoch nicht auf die Benutzung durch Blinde vorbereitet. Selbst wenn Telefonnummern abgespeichert und per Sprachkommando gewählt werden können, kann diese Speicherung praktisch nur von Sehenden vorgenommen werden.

Eigener Ansatz: Virtuelle taktile Karten

In meiner eigenen Arbeit entwickele ich einen dynamischen Ersatz für taktile Karten. Das dahinterliegende Konzept heißt "virtuelle taktile Karten". Dabei werden keine taktilen Karten eingesetzt, digitale Kartendaten können aber in der Interaktion ähnlich benutzt werden wie sie.

Um einen Weg in einem Stadtgebiet o.ä. selbständig gehen zu können, müssen sich Blinde das umgebende Straßenlayout einprägen, Wegsegmente und Winkel zwischen ihnen erlernen. Darin können sie virtuelle taktile Karten unterstützen, indem ein entsprechendes Computersystem das freie Erkunden eines Gebietes erlaubt, einen begehbaren Weg zwischen zwei Punkten sucht und ihnen diesen vermittelt.

Umsetzung mittels Bildverarbeitung

Die erste prototypische Implementierung eines Systems zur Erkundung virtueller taktiler Karten wurde mit Hilfe eines Bildverarbeitungssystems umgesetzt. Die Eingabe erfolgt über Bewegungen von Hand und mit spielsteinähnlichen Objekten, die Ausgabe über synthetische Sprache und Klänge. Die Hand und die Spielsteine werden auf eine Unterlage mit taktilem Gitter gelegt, auf die eine Videokamera gerichtet ist, die senkrecht nach unten zeigt.

Das prototypische System startet im Modus des freien Erkundens. In diesem Modus bewegen Benutzende die markierte Fingerspitze auf der Unterlage, wobei ihnen das System Informationen über sich (gedanklich) unter der Spitze befindliche kartographische Objekte wie Straßen und Gebäude durch synthetische Sprache mitteilt. Eine Route auf der Karte wird gewählt, indem zwei spielsteinähnliche Weganfangs- bzw. -endmarkierungen auf der Karte plaziert werden. Nachdem das System einen Verbindungsweg zwischen diesen bestimmt hat, wird er mit weiteren Objekten nachgelegt. Dadurch entsteht eine tatsächlich taktile Repräsentation des Weges.

Die Strecke wird nachgelegt, indem ein Streckenstein nach dem anderen plaziert wird, beginnend am Stein, der den Startpunkt der Strecke markiert. Das System teilt Benutzenden mit, welche Größe der Stein hat, der als nächstes gelegt werden soll. Es vermittelt ihnen weiterhin akustisch den Drehwinkel des aktuellen Steines, nachdem er am Anfangsstein oder einem schon plazierten Streckenstein angelegt wurde. Diese Vermittlung erfolgt durch Töne.

Technisch basiert das System auf einem Standard-PC, der um eine Videokarte erweitert ist. Die Kamera nimmt die durch einen farbigen Ring markierte Fingerspitze und die Objekte verschiedener Farben auf. Die aus den Aufnahmen ermittelten Positionen werden auf die Koordinaten der digitalen Karte umgerechnet.

Nachdem das System einen Verbindungsweg zwischen den beiden Steinen gefunden hat, vereinfacht es ihn zunächst. Dazu werden hintereinanderliegende Streckensegmente zusammengefaßt, die fast gerade ineinander übergehen. Danach werden die entstandenen Segmente so angepaßt, daß sie jeweils vollständig mit Steinen ausgefüllt werden können. Dazu wird ein jeweils Segment verkürzt oder verlängert. Die angepaßten Segmente werden dann wieder zu einer Strecke verbunden.

Der Prototyp eines Systems zur Erkundung virtueller taktiler Karten besitzt den vollständigen Funktionsumfang wie beschrieben. Die taktilen Eingabekomponenten (Unterlage und Steine) besitzen noch nicht die endgültige Form. Eine formale Evaluation steht daher noch aus.

Ausblick: Umsetzung mittels Kraftrückkopplung

An unserem Institut wird auch auf dem Gebiet der Vermittlung räumlicher Informationen an Blinde mit Hilfe eines Kraftrückkopplungsgerätes gearbeitet. Dazu setzen wird den Phantom von Sensable ein, ein dreidimensionales Kraftrückkopplungsgerät. Dafür wurde ein System entwickelt, mit dem Blinde ein dreidimensionales Architekturmodell erkunden können (s. König et al. 2000). Da bei der rein taktilen Erkundung eines dreidimensionalen Modelles Benutzende von einem Objekt abrutschen und dadurch die Orientierung verlieren können, wird das Modell als Grundriß und einzelne Teile wie Säulen als Aufriß dargestellt.

Ich werde einen ähnlichen Ansatz benutzen, um digitale Kartendaten als virtuelle taktile Karten mit dem genannten Kraftrückkopplungsgerät darzustellen. Dabei wird eine digitale Karte in eine Form überführt, die sich wie eine gravierte Platte anfühlt, bei der die Wege also als Einbuchtungen erscheinen. Informationen zu einzelnen taktilen Objekten werden über synthetische Sprache ausgegeben werden.


Der Autor dankt Dr. Arne Harder für Korrekturen und Ergänzungen.



Literatur

Brambring, M.; Schneider, W. (1986): "Lokomotion und Verkehrsverhalten sehgeschädigter Personen". Rehabilitation, 25, S. 74-79.

Brambring M.; Weber, C. (1981): "Taktile, verbale und motorische Informationen zur geographischen Orientierung Blinder". Zeitschrift für experimentelle und angewandte Psychologie, 28, S. 23-37.

Edman, P.K. (1992): Tactile Graphics. New York: American Foundation for the Blind.

Edwards, E.D. (1995): Extra-Ordinary Human-Computer Interaction. Cambridge u.a.: Cambridge University Press.

Espinosa, M.A.; Ungar, S.; Ochaita, E.; Blades, M.; Spencer, C. (1998): "Comparing methods for introducing blind and visually impaired people to unfamiliar environments". Environmental Psychology, 18, S. 277-287.

Harder, A.; Kasten, E.; Sabel, B.A. (1999): "Möglichkeiten der Mobilität blinder Menschen". Aktuelle Augenheilkunde, 2, S. 8-13.

Hollyfield R.; Foulke E. (1983): "The spatial cognition of blind pedestrians". Journal of Visual Impairment and Blindness, 77, S. 204-210.

Holmes, E., Michel, R., Raab, A. (1995): "Computerunterstützte Erkundung digitaler Karten durch Sehbehinderte." In: Laufenberg, W.; Lötzsch, J. (Hrsg.): Taktile Medien: Kolloquium über tastbare Abbildungen für Blinde. Freital bei Dresden: Deutsche Blindenstudienanstalt, Blinden- und Sehbehindertenverband Sachsen, S. 81-87.

Kennedy, M. (1980): "Blind People Recognizing and Making Haptic Pictures". Hagen, M.A. (Hrsg.): The Perception of Pictures, Vol. II. New York: Academic Press, S. 263-303.

König, H.; Schneider, J.; Strothotte, Th. (2000): "Haptic Exploration of Virtual Buildings Using Non-Realistic Rendering", Proc. International Conference on Computers Helping People with Special Needs (ICCHP), Karlsruhe, July 17-21, 2000 (im Druck).

Newell, A.F. (1995): "Extraordinary human-computer interaction". In: (Edwards 1995), S. 3-18.

Papanek, V. (1995): The Green Imperative: Natural Design for the Real World. New York: Thames and Hudson.

Strothotte, Th.; Fritz, S.; Michel, R.; Raab, A.; Petrie, H.; Johnson, V.; Reichert, L.; Schalt, A. (1996): "Development of Dialogue Systems for a Mobility Aid for Blind People: Initial design and Usability Testing". ACM Conference on Assistive Technologies, ASSETS '96, Vancouver, April 11-12, 1996, S. 139-144.


[1] Daß als Beispiel fur durch außergewöhnliche Umgebungen behinderte Benutzende Soldaten in Kampfhandlungen angeführt werden (Newell 1993) bedeutet nicht, daß Forschung auf diesem Gebiet letztendlich Rüstungsforschung ist, wie in diesem Artikel hoffentlich klarwerden wird. (Es ist im Gegenteil so, daß Militartechnik wie GPS zur Unterstützung der Mobilität Blinder zivil genutzt wird.)



Alle Rechte vorbehalten!

Quelle: FIfF-Kommunikation, 13. Jahrgang, Heft 2.
Die komplette Zeitschrift kann bei der FIfF-Geschäftsstelle bestellt werden.


Die Seiten werden redaktionell betreut von der FIfF-Regionalgruppe Bremen.
Hinweise und Anmerkungen bitte an Ralf E. Streibl.
Letzte Änderung: 03.07.2000

Leitseite 'Informationstechnik und Behinderung' Zurück zur FIfF-Regionalgruppe Bremen


Valid HTML 4.0!