[ Pobierz całość w formacie PDF ]
.Pokrętła nie tylko obracały się, ale także wydawały dźwięk dodający im realizmu.Możliwe są dowolne aplikacje pomysłu: od gier dla dzieci do uproszczonej ob­sługi kokpitu pilota.Interfejs oddaje ciosZdalnych manipulatorów używa się powszechnie w warunkach szkodliwych dla człowieka, np.w reaktorach nuklearnych.Ramię robota pracuje w reaktorze, a kontrolujący je operator znajduje się na zewnątrz.Zwykle ramię sterowane i sterujące są znacznie odda­lone od siebie i operator ogląda swoje działania na ekranie monito­ra telewizyjnego.Ramię manipulatora zazwyczaj ma na końcu szczypce kontrolowane przez palec wskazujący i kciuk operatora, co pozwala na chwytanie obiektów; w ten sposób można wyczuwać wagę i elastyczność (jeśli istnieje) próbki uranu.Fred Brooks z kolegami z Uniwersytetu Północnej Karoliny mie­li świetny pomysł: wyobraźmy sobie, że nie istnieje w ogóle ramię sterowane, ale że przewody prowadzące do niego połączono do komputera symulującego całe doświadczenie.Obiekty widoczne te­raz na ekranie nie są rzeczywiste, ale modelowane i wyświetlane przez komputer, który odtwarza również właściwą im wagę i ela­styczność.Dotykowe właściwości komputera traktowano zawsze jako moż­liwość dotykania go przez użytkownika, nigdy odwrotnie.Brałem udział we wstępnym projekcie budowania prototypu maszyny, która naciskała na użytkownika, urządzenia do siłowego sprzężenia zwrotnego, w którym siła potrzebna do poruszania mo­gła być funkcją czegokolwiek.Pod kontrolą komputera zmieniała się od poczucia, jakie daje swobodny ruch, aż do wrażenia porusza­nia się w gęstym błocie.W jednej z aplikacji używaliśmy mapy sta­nu Massachusetts z bazą danych demograficznych.Użytkownik mógł planować przebieg nowej autostrady, poruszając przyrząd z si­łowym sprzężeniem zwrotnym.Jednakże siła potrzebna do jego po­ruszania zależała od liczby rodzin, które trzeba było przesiedlić.Można było zamknąć oczy i narysować taki przebieg autostrady, który wywoływał najmniejszy opór społeczny.Gdy IBM wprowadził minimanipulator (minidrążek) pośrodku klawiatury przenośnego komputera ThinkPad, to otworzył drogę do aplikacji ze sprzężeniem zwrotnym siłowym, gdyż manipulator ten jest wrażliwy na nacisk, nie na przesunięcie.Miejmy nadzieję, że rynek pozytywnie zareaguje na ideę urządzeń dotykowych oraz rozwinie aplikacje, które pozwolą nam poczuć, jak ten mini-drążek nas odpycha.Inny przykład demonstrował Alan Kay (powszechnie uznawany za ojca komputera osobistego) w firmie Apple.Jeden z jego na­ukowców opracował „upartą” mysz, w której używano zmiennego pola magnetycznego, aby dała się poruszać łatwiej lub trudniej.Zwiększenie pola powodowało jej zupełne zatrzymanie i uniemożli­wiało wprowadzenie kursora w zabronione obszary.Rzuć okiem na komputerWyobraźmy sobie, że po przeczytaniu zawartości ekranu kom­putera możemy zapytać: Co to znaczy? Kim ona jest? Jak się tam dostała? Pojęcia: to, ona, tam, określa w danym momencie kieru­nek, w którym patrzymy.Pytania dotyczą miejsca, w jakim wzrok pada na tekst.Zwykle oczu nie traktuje się jak urządzeń wyjścio­wych, mimo to używamy ich w ten sposób przez całe życie.Sposób, w jaki ludzie mogą wykryć kierunek patrzenia innych osób i kontaktować się wzrokowo, trzeba uznać za co najmniej ma­giczny.Wyobraźmy sobie, że stoimy sześć metrów od osoby, która czasem patrzy nam prosto w oczy, czasem zaś ponad naszym ramie­niem.Natychmiast wykrywamy tę różnicę, mimo że kierunek pa­trzenia zmienił się jedynie o ułamek stopnia.Jak?Z pewnością nie jest to geometria, gdzie obliczamy kąt nachyle­nia do płaszczyzny prostopadłej przechodzącej przez gałki oczne pa­trzącego i sprawdzamy, czy ta prostopadła przecina się z naszą linią patrzenia.Nie.Następuje coś zupełnie innego - między naszymi oczami przekazywany jest komunikat.Nie wiemy, jak to się dzieje.Oczu używamy przez cały czas do wskazywania obiektów.Gdy­by kogoś zapytać, dokąd ktoś inny się udał, odpowiedzią może być spojrzenie ku otwartym drzwiom.Wyjaśniając, co zamierzamy nieść, patrzymy na jedną lub drugą walizkę.Ten rodzaj wskazywa­nia, połączony z ruchem głowy, może być bardzo sprawnym kana­łem komunikacyjnym.Istnieje kilka technologii śledzenia ruchu oczu.Jednym z naj­wcześniejszych przykładów funkcjonowania tej metody było urzą­dzenie zamocowane na głowie, które w trakcie czytania zmieniało tekst na ekranie z wersji francuskiej na angielską.W miarę jak wzrok posuwał się po ekranie, słowa stawały się francuskie i ekran wydawał się w stu procentach francuski.Osoba oglądająca tekst z boku, której wzroku urządzenie nie śledziło, oglądała ekran w dziewięćdziesięciu dziewięciu procentach angielski (wszystkie słowa, za wyjątkiem tego, na które właśnie patrzyła osoba podda­wana eksperymentowi).Współczesne systemy śledzenia wzroku posługują się kamerą te­lewizyjną i nie wymagają nakładania na głowę żadnych urządzeń.Zestaw przygotowany do obsługi wideokonferencji jest dobrze przystosowany do śledzenia wzroku, gdyż ich uczestnicy siedzą przed monitorem w prawie jednakowej odległości.Pozwala to pa­trzeć w oczy osobom w innym miejscu (komputer wie, gdzie one naprawdę się znajdują).Im więcej komputer wie na temat naszego położenia, postawy i szczególnych właściwości oczu, tym łatwiej może się zorientować, gdzie akurat patrzymy.Jest ironią losu, że to pozornie egzotyczne zastosowanie oczu jako tzw.urządzenia wejściowego znajdzie swe pierwsze zastosowanie w popularnym układzie złożonym z osoby siedzącej przed komputerem.Będzie zaś działać jeszcze lepiej, jeśli połączy się je z innym ka­nałem wejściowym - głosem.Czy możemy porozmawiać?Nie tylko stówaDla większości ludzi pisanie z pomocą klawiatury nie stanowi rozwiązania idealnego.Jeżeli moglibyśmy rozmawiać z kompute­rami, to nawet największy przeciwnik maszyn używałby ich z większym entuzjazmem.Mimo to komputery pozostają -w większym lub mniejszym stopniu - głuche i nieme.Dlaczego?Głównym powodem małego postępu w rozpoznawaniu mowy jest brak właściwej perspektywy, nie zaś brak technologii.Gdy widzę prezentera trzymającego mikrofon przy ustach w trakcie demonstracji urządzenia do rozpoznawania mowy, zastanawiam się, czy naprawdę nie zdaje on sobie sprawy, że główną zaletą mo­wy jest to, że ma się wolne ręce.Gdy widzę ludzi z twarzami tuż obok ekranu, zastanawiam się, czy naprawdę nie zdają sobie sprawy, że główną zaletą mowy jest możliwość zachowania dy­stansu.Gdy słyszę ludzi żądających systemów rozpoznających mowę niezależnie od tego, kto mówi, zadaję sobie pytanie, czy nie zapomnieli, że mamy mówić do komputera osobistego, nie wspólnego.Dlaczego każdy próbuje rozwiązywać niewłaściwą część problemu?Sprawa jest prosta.Do niedawna powodowały nami dwie źle skierowane obsesje [ Pobierz całość w formacie PDF ]

  • zanotowane.pl
  • doc.pisz.pl
  • pdf.pisz.pl
  • necian.htw.pl