Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Powiadomienia systemowe
  • Sesja wygasła!

Znaleziono wyników: 3

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  navigation for blind people
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
EN
The purpose of this paper is to present a multichannel ultrasonic range finder which was designed for the navigation system for blind people. A substantial number of consultations with blind people in the Blind People Centre in Krakow have shown that the navigation and obstacle detection with a help of a white stick only, is not sufficient enough to assure a high safety level. Electronic aids which are being designed for blind people should be mobile, comfortable and low-powered. That is why the MOBIAN© (a mobile safety system for the blind) project is being carried out by the authors to create a highly reliable safety navigation system for blind people. It could not only improve blind people quality of life but also their safety, especially when they are walking in unknown areas. As a part of this project, the multichannel ultrasonic range finder was designed, produced and tested. The tests have proven the device is capable of detecting objects from different directions in a range over 4 m. The device interface is easy to manage and can be controlled by almost any microcontroller or FPGA chip. The designed range finder is to be implemented in the electronic assistant project for blind people. Other systems, including the industrial ones, for instance, mobile robots or gates that count people entries, could benefit from this multichannel range finder. Usually, some low-cost ultrasonic range finders use two transducers for each channel (a transmitter and a receiver). The designed device employs only one transducer per channel which minimizes the end-device size and cost and at the same time provides with the main functionality. Novelty of this device is its multichannel design and the emplacement of the ultrasonic transducers, which can be used due to the application of the multichannel analog multiplexer. Thus, it is possible to detect obstacles, even the inclined ones, with higher reliability and increase the safety of blind people while walking. Also, this design and the transducers’ placement allow to detect obstacles much quicker, when the blind user suddenly turns.
2
Content available remote Blind-enT : an approach to support orientation and navigation for blind people
EN
The claim is that blind persons can perceive objects like door, pillar, ditch, elevator, passage, room, hall, building, street, etc., having only mobile cellular phones. The primary goal of all positioning systems is to determine the user’s position as precisely as possible, whereas the main purpose of our project is to provide a blind person with the ability to locate an object and then to perceive it by getting to know its attributes. This permits area familiarization and route planning. Object position may be one of the attributes. Once a blind person identifies an object (by being close to it), she/he can get to know her/his position from the object attributes. It is interesting that the position is not so important also for sighted persons; the position is usually relative and can be derived from perceiving orientation points (e.g., interesting objects) that have already been remembered. The crucial assumption of our project is that objects can be located (identified) using IrDA connectivity. This means that in order to be located an object must have an infrared transceiver (standard IrDA controller) that transmits data (to a mobile) containing the object’s identifier and the azimuth of the infrared message beam and, if it is necessary the current values of some of its attributes. Given the object’s identifier the complete object description can be downloaded from a local or global repository via Bluetooth, or/and GPRS connectivity of a mobile. It is important to note that, unlike Talking Signs, the description is not in a voice format. It is expressed in terms of generic attributes and types so that it can be processed automatically. Only the result of such processing is delivered to a blind user as voice.
PL
Osoba niewidoma może postrzegać obiekty, takie jak drzwi, słupy, windę, przejście, pokój, budynek, ulicę, itd. dysponując jedynie telefonem komórkowym w swojej ręce. Najważniejszym zadaniem systemu pozycyjnego jest określenie położenia użytkownika z największą możliwą precyzją, podczas gdy głównym celem naszego projektu jest zapewnienie osobie niewidomej zdolności do zlokalizowania obiektu, a następnie poznania go poprzez wartości jego atrybutów. Pozwala to na zapoznanie się z otoczeniem i planowanie trasy. Pozycja obiektu może być jednym z jej atrybutów. W momencie, gdy osoba niewidoma zidentyfikuje obiekt (przez zbliżenie się do niego), wówczas będzie w stanie poznać swoją pozycję poprzez wartość odpowiedniego atrybutu. Interesującym faktem jest to, że pozycja nie jest tak istotna również dla osób widzących, gdyż jest ona najczęściej względna; może być określona na podstawie odniesienia do punków orientacyjnych (interesujących miejsc), których położenie jest już znane. Podstawowym założeniem naszego projektu jest to, że obiekty mogą być lokalizowane (identyfikowane) przy użyciu technologii IrDA. Oznacza to, że, aby obiekt mógł być zlokalizowany musi posiadać nadajnik podczerwieni, który będzie transmitował identyfikator obiektu, azymut wiązki podczerwieni i, jeśli to będzie konieczne, aktualne wartości atrybutów dynamicznych, zmieniających się w czasie. Znając identyfikator obiektu, użytkownik będzie w stanie pobrać kompletny opis obiektu z lokalnego lub globalnego repozytorium. Należy zaznaczyć, że w przeciwieństwie do systemu Talking Signs [1], opis nie jest w formacie dźwiękowym. Jest wyrażony w języku, na który składają się definicje typów, atrybutów i obiektów. Takie podejście czyni możliwym i łatwym automatycznie analizowane opisów danych obiektów. Jedynie rezultat ich przetwarzania jest przekazywany osobie niewidomej w postaci głosu.
3
Content available remote Blind-enT : Making Objects Visible for Blind People
EN
The claim is that blind persons can perceive objects like door, pillar, ditch, elevator, passage, room, hali, building, Street, etc,, haying only mobile cellular phones. The primary goal of all positioning systems is to determine the user's position as precisely as possible, whereas the main purpose of our project is to provide a blind person with the ability to locate an object and then to perceive it by getting to know its attributes. This permits area familiarization and route planning. Object position may be one of the attributes. Once a blind person identifies an object (by being close to it), she/he can get to know her/his position from the object attributes. It is interesting that the position is not so important also for sighted persons; the position is usually relative and can be derived from perceiving orientation points (e.g., interesting objects) that have already been remembered. The crucial assumption of our project is that objects can be located (identified) using IrDA connectivity. This means that in order to be located an object must have an infrared transceiver (standard IrDA controller) that transmits data (to a mobile) containing the object's identifier and the azimuth of the infrared message beam and, if it is necessary the current values of some of its attributes. Given the object's identifier the complete object description can be downloaded from a local or global repository via Bluetooth, or/and GPRS connectivity of a mobile. It is important to notę that, unlike Talking Signs, the description is not in a voice format. It is expressed in terms of generic attributes and types so that it can be processed automatically. Only the result of such processing is delivered to a blind user as voice.
PL
Osoba niewidoma może postrzegać obiekty takie jak drzwi, słupy, windę, przejście, pokój, budynek, ulicę, itd. dysponując jedynie telefonem komórkowym w swojej ręce. Najważniejszym zadaniem systemu pozycyjnego jest określenie położenia użytkownika z największą możliwą precyzją, podczas, gdy głównym celem naszego projektu jest zapewnienie osobie niewidomej zdolności do zlokalizowania obiektu, a następnie poznania go poprzez wartości jego atrybutów. Pozwala to na zapoznanie się z otoczeniem i planowanie trasy. Pozycja obiektu może być jednym z jej atrybutów. W momencie, gdy osoba niewidoma zidentyfikuje obiekt (przez zbliżenie się do niego), wówczas będzie w stanie poznać swoją pozycję poprzez wartość odpowiedniego atrybutu. Interesującym faktem jest to, że pozycja nie jest tak istotna również dla osób widzących, gdyż jest ona najczęściej względna; może być określona na podstawie odniesienia do punków orientacyjnych (interesujących miejsc), których położenie jest już znane. Podstawowym założeniem naszego projektu jest to, że obiekty mogą być lokalizowane (identyfikowane) przy użyciu technologii IrDA. Oznacza to, że, aby obiekt mógł być zlokalizowany musi posiadać nadajnik podczerwieni, który transmitował będzie identyfikator obiektu, azymut wiązki podczerwieni i, jeśli to będzie konieczne, aktualne wartości atrybutów dynamicznych, zmieniających się w czasie. Znając identyfikator obiektu użytkownik będzie w stanie pobrać kompletny opis obiektu z lokalnego lub globalnego repozytorium. Należy zaznaczyć, że w przeciwieństwie do systemu Talking Signs [1], opis nie jest w formacie dźwiękowym. Jest wyrażony w języku, na który składają się definicje typów, atrybutów i obiektów. Takie podejście czyni możliwym i łatwym automatyczne analizowane opisów danych obiektów. Wyłącznie rezultat ich przetwarzania jest przekazywany osobie niewidomej w postaci głosu.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.