[ Pobierz całość w formacie PDF ]
.Pokrętła nie tylko obracały się, ale także wydawały dźwięk dodający im realizmu.Możliwe są dowolne aplikacje pomysłu: od gier dla dzieci do uproszczonej obsługi kokpitu pilota.Interfejs oddaje ciosZdalnych manipulatorów używa się powszechnie w warunkach szkodliwych dla człowieka, np.w reaktorach nuklearnych.Ramię robota pracuje w reaktorze, a kontrolujący je operator znajduje się na zewnątrz.Zwykle ramię sterowane i sterujące są znacznie oddalone od siebie i operator ogląda swoje działania na ekranie monitora telewizyjnego.Ramię manipulatora zazwyczaj ma na końcu szczypce kontrolowane przez palec wskazujący i kciuk operatora, co pozwala na chwytanie obiektów; w ten sposób można wyczuwać wagę i elastyczność (jeśli istnieje) próbki uranu.Fred Brooks z kolegami z Uniwersytetu Północnej Karoliny mieli świetny pomysł: wyobraźmy sobie, że nie istnieje w ogóle ramię sterowane, ale że przewody prowadzące do niego połączono do komputera symulującego całe doświadczenie.Obiekty widoczne teraz na ekranie nie są rzeczywiste, ale modelowane i wyświetlane przez komputer, który odtwarza również właściwą im wagę i elastyczność.Dotykowe właściwości komputera traktowano zawsze jako możliwość dotykania go przez użytkownika, nigdy odwrotnie.Brałem udział we wstępnym projekcie budowania prototypu maszyny, która naciskała na użytkownika, urządzenia do siłowego sprzężenia zwrotnego, w którym siła potrzebna do poruszania mogła być funkcją czegokolwiek.Pod kontrolą komputera zmieniała się od poczucia, jakie daje swobodny ruch, aż do wrażenia poruszania się w gęstym błocie.W jednej z aplikacji używaliśmy mapy stanu Massachusetts z bazą danych demograficznych.Użytkownik mógł planować przebieg nowej autostrady, poruszając przyrząd z siłowym sprzężeniem zwrotnym.Jednakże siła potrzebna do jego poruszania zależała od liczby rodzin, które trzeba było przesiedlić.Można było zamknąć oczy i narysować taki przebieg autostrady, który wywoływał najmniejszy opór społeczny.Gdy IBM wprowadził minimanipulator (minidrążek) pośrodku klawiatury przenośnego komputera ThinkPad, to otworzył drogę do aplikacji ze sprzężeniem zwrotnym siłowym, gdyż manipulator ten jest wrażliwy na nacisk, nie na przesunięcie.Miejmy nadzieję, że rynek pozytywnie zareaguje na ideę urządzeń dotykowych oraz rozwinie aplikacje, które pozwolą nam poczuć, jak ten mini-drążek nas odpycha.Inny przykład demonstrował Alan Kay (powszechnie uznawany za ojca komputera osobistego) w firmie Apple.Jeden z jego naukowców opracował „upartą” mysz, w której używano zmiennego pola magnetycznego, aby dała się poruszać łatwiej lub trudniej.Zwiększenie pola powodowało jej zupełne zatrzymanie i uniemożliwiało wprowadzenie kursora w zabronione obszary.Rzuć okiem na komputerWyobraźmy sobie, że po przeczytaniu zawartości ekranu komputera możemy zapytać: Co to znaczy? Kim ona jest? Jak się tam dostała? Pojęcia: to, ona, tam, określa w danym momencie kierunek, w którym patrzymy.Pytania dotyczą miejsca, w jakim wzrok pada na tekst.Zwykle oczu nie traktuje się jak urządzeń wyjściowych, mimo to używamy ich w ten sposób przez całe życie.Sposób, w jaki ludzie mogą wykryć kierunek patrzenia innych osób i kontaktować się wzrokowo, trzeba uznać za co najmniej magiczny.Wyobraźmy sobie, że stoimy sześć metrów od osoby, która czasem patrzy nam prosto w oczy, czasem zaś ponad naszym ramieniem.Natychmiast wykrywamy tę różnicę, mimo że kierunek patrzenia zmienił się jedynie o ułamek stopnia.Jak?Z pewnością nie jest to geometria, gdzie obliczamy kąt nachylenia do płaszczyzny prostopadłej przechodzącej przez gałki oczne patrzącego i sprawdzamy, czy ta prostopadła przecina się z naszą linią patrzenia.Nie.Następuje coś zupełnie innego - między naszymi oczami przekazywany jest komunikat.Nie wiemy, jak to się dzieje.Oczu używamy przez cały czas do wskazywania obiektów.Gdyby kogoś zapytać, dokąd ktoś inny się udał, odpowiedzią może być spojrzenie ku otwartym drzwiom.Wyjaśniając, co zamierzamy nieść, patrzymy na jedną lub drugą walizkę.Ten rodzaj wskazywania, połączony z ruchem głowy, może być bardzo sprawnym kanałem komunikacyjnym.Istnieje kilka technologii śledzenia ruchu oczu.Jednym z najwcześniejszych przykładów funkcjonowania tej metody było urządzenie zamocowane na głowie, które w trakcie czytania zmieniało tekst na ekranie z wersji francuskiej na angielską.W miarę jak wzrok posuwał się po ekranie, słowa stawały się francuskie i ekran wydawał się w stu procentach francuski.Osoba oglądająca tekst z boku, której wzroku urządzenie nie śledziło, oglądała ekran w dziewięćdziesięciu dziewięciu procentach angielski (wszystkie słowa, za wyjątkiem tego, na które właśnie patrzyła osoba poddawana eksperymentowi).Współczesne systemy śledzenia wzroku posługują się kamerą telewizyjną i nie wymagają nakładania na głowę żadnych urządzeń.Zestaw przygotowany do obsługi wideokonferencji jest dobrze przystosowany do śledzenia wzroku, gdyż ich uczestnicy siedzą przed monitorem w prawie jednakowej odległości.Pozwala to patrzeć w oczy osobom w innym miejscu (komputer wie, gdzie one naprawdę się znajdują).Im więcej komputer wie na temat naszego położenia, postawy i szczególnych właściwości oczu, tym łatwiej może się zorientować, gdzie akurat patrzymy.Jest ironią losu, że to pozornie egzotyczne zastosowanie oczu jako tzw.urządzenia wejściowego znajdzie swe pierwsze zastosowanie w popularnym układzie złożonym z osoby siedzącej przed komputerem.Będzie zaś działać jeszcze lepiej, jeśli połączy się je z innym kanałem wejściowym - głosem.Czy możemy porozmawiać?Nie tylko stówaDla większości ludzi pisanie z pomocą klawiatury nie stanowi rozwiązania idealnego.Jeżeli moglibyśmy rozmawiać z komputerami, to nawet największy przeciwnik maszyn używałby ich z większym entuzjazmem.Mimo to komputery pozostają -w większym lub mniejszym stopniu - głuche i nieme.Dlaczego?Głównym powodem małego postępu w rozpoznawaniu mowy jest brak właściwej perspektywy, nie zaś brak technologii.Gdy widzę prezentera trzymającego mikrofon przy ustach w trakcie demonstracji urządzenia do rozpoznawania mowy, zastanawiam się, czy naprawdę nie zdaje on sobie sprawy, że główną zaletą mowy jest to, że ma się wolne ręce.Gdy widzę ludzi z twarzami tuż obok ekranu, zastanawiam się, czy naprawdę nie zdają sobie sprawy, że główną zaletą mowy jest możliwość zachowania dystansu.Gdy słyszę ludzi żądających systemów rozpoznających mowę niezależnie od tego, kto mówi, zadaję sobie pytanie, czy nie zapomnieli, że mamy mówić do komputera osobistego, nie wspólnego.Dlaczego każdy próbuje rozwiązywać niewłaściwą część problemu?Sprawa jest prosta.Do niedawna powodowały nami dwie źle skierowane obsesje
[ Pobierz całość w formacie PDF ]