HAL 9000, komputer z filmu „2001: Odyseja kosmiczna”: Wiem, że podejmowałem ostatnio kiepskie decyzje, ale mogę was zapewnić, że znów zacznę normalnie pracować. Nadal mam ogromny entuzjazm i wiarę w misję. I chcę wam pomóc.
Nie pytajmy, czy, ale kiedy człowiek nie będzie umiał obejść się bez sztucznej inteligencji. W świat SI zabiera nas Aleksandra Przegalińska. Najbardziej znana w świecie nowych technologii Polka prowadząca badania na MIT, tworzy pasjonującą biografię Sztucznej Inteligencji.
Rozdział z książki "Sztuczna Inteligencja. Nieludzka, arcyludzka", którą Przegalińska napisała z Pawłem Oksanowiczem publikujemy dzięki uprzejmości wydawnictwa Znak.
Jeden dzień z życia ze sztuczną inteligencją w przyszłości
Zaczynam dzień ze sztuczną inteligencją, SI. Z pewnością inaczej wygląda ten początek niż wtedy, gdy powstawała ta książka w roku 2020.
Mam na czole neutralnie odbieraną przez moją skórę opaskę; sama ją zaprojektowałam i wydrukowałam za pomocą drukarki 3D. Często zmieniam tę część, która przylega do skóry, bo zużywa się dość szybko.
Produkcja nowej w warunkach domowych zajmuje około dwóch minut. Na dodatek w prosty i ekologiczny sposób mogę ją zutylizować.
W opaskę są wbudowane sensory do detekcji fazy snu. Detektory snu ma również moja pidżama. Całość działa w ten sposób, że budzi mnie zawsze około siódmej rano; precyzyjnie mierzy, czy aktualna faza snu pozwala na łagodne przebudzenie.
System podłączony do opaski i pidżamy analizuje dane z sensorów, odnosząc je do spersonalizowanych parametrów dobrego snu, i decyduje, że powinnam otworzyć oczy właśnie w danym momencie.
Jednego dnia to może być godzina 07.03, a drugiego – 07.05.
Rozbudowana aplikacja na podstawie moich określonych ruchów w łóżku i prądów przechodzących przez mój mózg ocenia też przez całą noc, czy mój sen jest niestabilny, czy spokojny, i w razie potrzeby stara się mikroprądami spowodować jego polepszenie.
Budzę się w moim smart house. Mieszkam bowiem w inteligentnym domu, który adaptuje się do moich potrzeb i stara się dobrze je rozpoznawać. System połączonych sensorów i regulujących ich pracę algorytmów decyduje o powolnym odsunięciu zasłon w sypialni.
Wtedy światło dzienne łagodnie dociera do moich oczu. Sama opaska na czole też daje możliwość generowania naturalnego światła, tak abym zawsze budziła się w słoneczny dzień, niezależnie od tego, jaka jest pogoda. To piękne przebudzenie.
Mój inteligentny dom jest w całości ochipowany, tworzy system IoT (Internet of Things, internet rzeczy) i różne sprzęty współpracują ze sobą nawzajem, a także ze mną.
Gdy zatem wstaję, ekspres do kawy już wie, że się obudziłam. W 2020 roku nie jest to zaawansowane rozwiązanie, ale trzeba przyznać, że bywa przydatne i miłe, kiedy to pożyteczne i niewinne urządzenie AGD zaskoczy mnie przygotowaniem – dzięki sensorom i systemowi rekomendacji opartemu na różnych rankingach – mojej ulubionej caffè latte.
A może jeszcze zapyta mnie: – Hi Ola, czy chcesz latte? Potwierdź to.
Wtedy odpowiadam: "Tak, dzisiaj chcę latte" albo: "Nie chcę, zrób mi jednak espresso".
Tak zaczynam dzień.
Od samego ranka uruchamia się wiele procesów, które powodują, że pozostaję w interakcji z technologiami. Monitor zamontowany na drzwiach garderoby podpowiada rodzaj ubrania adekwatnego do pogody i okazji. Równie dobrze może to być aplikacja w smartfonie w rodzaju tych, które w 2020 roku "nakładają" na głowę różne fryzury albo ubrania, aby przekonać odbiorcę, jak wygląda w danej stylizacji.
Tutaj zastosowanie technologii polega na wykorzystaniu bardzo popularnej i istotnej dziedziny sztucznej inteligencji, jaką jest przetwarzanie obrazu. System pyta mnie, czy dziś będzie mi dobrze w zestawie: dżinsy i sweter w reniferki.
Skąd te reniferki? Uwielbiam pocieszność generowaną przez swetry z tym charakterystycznym wzorem, chociaż kojarzą mi się one głównie z programistami, którzy noszą rogowe okulary i niewiele mówią (odwrotnie niż ja).
Jeśli jednak tego dnia nie chcę się ubrać w ten sposób, oto aplikacja podpowiada mi kolejny zestaw: może lepiej dżinsy i marynarka?
Zatwierdzam: "Tak, to ten look, to chcę mieć dziś na sobie".
Po kliknięciu odpowiedniego przycisku garderoba otwiera się i na półkach w szafach podświetlają się miejsca i wieszak, na których znajdują się ubrania zaakceptowane przeze mnie.
Tak nawigowana ubieram się trochę szybciej niż bez tej pomocy i jest szansa, że będę bardziej zadowolona z wyboru. Dodatkowym plusem jest to, że SI przeszukuje całą garderobę, a nie tylko półki, które są na wyciągnięcie ręki.
Przypomina mi w ten sposób o ubraniach, o których już zapomniałam, i być może zmniejsza apetyt na robienie nowych, często niepotrzebnych zakupów ubraniowych.
Chcę jechać do pracy. Tu objawia mi się sztuczna inteligencja w całej krasie: mam do dyspozycji autonomiczny transport publiczny albo… autonomiczny samochód.
Może jeszcze będę mieć wybór: auto w pełni autonomiczne lub tylko wsparcie dla kierowcy w postaci SI. Niemniej auto z pewnością będzie wyposażone w system detekcji obiektów, tak zwane widzenie maszynowe, machine vision, oraz w system nawigacji satelitarnej z sensorami powierzchni. Przez łączność satelitarną połączy się z miejskim systemem regulacji ruchu, abym omijała korki.
Zresztą nie chodzi tylko o ominięcie korków, takie systemy mamy już przecież w roku 2020, ale na pewno w tej kwestii pójdziemy o krok dalej: po naciśnięciu "On" w moim samochodzie włączę się do szerszego systemu, który te korki spróbuje sam rozładować.
Zadziała zatem analityka predykcyjna oraz machine learning, uczenie maszynowe. Tu ważna uwaga. Kiedy wsiadam do samochodu autonomicznego, a takie są już w sprzedaży w 2020 roku, nie jestem kierowcą, ale "współkierowcą" lub nawet pasażerem.
Bot (skrót od "robot", program komputerowy), który jest w nim zamontowany, wita mnie słowami: "Dzień dobry" lub: "Cześć, Olu!".
Odpowiadam: – Cześć, zawieź mnie do pracy.
Po drugiej stronie idealnie zsyntetyzowany głos mówi mi, którą drogą pojedziemy i ile zajmie to czasu. Bot asystent proponuje też włączenie radia albo rozmowę na temat wiadomości dnia.
Pogawędka jest swobodna i przypomina taką, jaką można toczyć ze znajomym. Kiedy system przetworzył już wszystkie inicjujące komendy, samochód rusza.
Jedziemy, korzystając ze wspomnianego systemu optymalizacji trasy. W 2020 roku niektórzy twierdzą, że mógłby on działać jako blockchain (technologia łańcucha bloków danych, peer-to-peer) – rozwiązanie, dzięki któremu każdy użytkownik w sieci jest jej równoprawnym uczestnikiem.
Na pewno jest to jedna z możliwości zrealizowania takiego systemu. Po drodze może zdarzyć się tak, że kichnęłam, a sensor zamontowany w moim ubraniu odnotował, iż podniosło się stężenie przeciwciał w mojej krwi.
Wtedy otrzymuję alert na aplikację w smartfonie – przy założeniu, że wciąż korzystam jeszcze ze smartfona, a nie z nieznanego bliżej w 2020 roku uniwersalnego interfejsu (możliwe wszak, że w niedalekiej przyszłości smartfon będzie już sprzętem retro).
To może być też modna opaska na rękę, którą dostałam na imieniny, a wcześniej wybrałam w internetowym sklepie z biżuterią.
W każdym razie załóżmy, iż technologia ubieralna stwierdza przy okazji, że mam też delikatnie podwyższony puls. Wtedy mój bot komunikuje się z tym w samochodzie, który mówi: – Olu, wydaje mi się, że czujesz się trochę gorzej niż zazwyczaj. Czy skontaktować cię z lekarzem?
Wtedy odpowiadam: "Tak, poproszę".
Automatycznie zmieniamy trasę i po drodze do pracy wstąpimy do lekarza. Oczywiście mam także możliwość wydać komendę "decline" – odmawiam i jedziemy bezpośrednio do pracy.
Wtedy system, jeśli sobie tego życzę, może mi zaproponować leczenie zaczynającej się infekcji gardła sam z siebie, według predykcji i znajomości mojego organizmu z poprzednich przeziębień.
To rozwiązanie byłoby szczególnie pomocne dla osób, które cierpią na groźne chroniczne choroby: cukrzycę czy epilepsję.
[…]
Podróż do domu przypomina tę poranną. Spostrzegam, że lodówka świeci pustkami, trzeba zaopatrzyć dom w produkty spożywcze.
Wydaję polecenie zakupów, wymieniając produkty: twaróg, ryby, chleb, masło, mleko, warzywa, owoce. Lodówka podpowiada mi, że przeważnie jeszcze zamawiam jogurt brzoskwiniowy, więc zamawiam go także. Lub nie – to moje prawo.
Co się wtedy dzieje tak naprawdę? Działa głęboka sieć neuronowa, na której oparty jest system rekomendacyjny analizujący moje preferencje.
Podsuwa mi: "Czy chcesz inny jogurt tej samej firmy?".
"Nie, dzisiaj nie".
"Dobrze, szukam dalej".
Po chwili dowiaduję się, że jogurt konkurencji ma dziewięćdziesiąt osiem procent wspólnych składników z tym moim ulubionym, jest też podobny w smaku. To kolejne wskazanie dla mnie.
System pyta: "Czy może masz ochotę na ten jogurt?".
Odpowiadam: "No dobrze, taki może być, ewentualnie". Ale lodówka nie odpuszcza i przypomina mi, że moja lista preferencji jest następująca: śmietana, tarty ser i pomidory w oliwie. Klikam "OK". Zamawiam te produkty.
Mogę to wszystko zrobić także przez mojego asystenta w smartfonie, ale tym razem daję mu odpocząć.
Lodówka podpowiada mi jeszcze, że mam kilka produktów na liście poza sektorami nabiału czy owoców i warzyw.
"Ostatnio nie zamawiałaś kosmetyków ani artykułów higienicznych".
Opisany mechanizm może działać jak w 2020 roku system rekomendacyjny Alexa (…) firmy Amazon, ale najpewniej (jeżeli Amazon nie uzyska pozycji monopolistycznej, o co będzie trudno) na rynku będzie już wiele innych firm, które stworzą takie systemy.
W amerykańskich domach jest już dziś pięćdziesiąt milionów takich urządzeń, z którymi można się w opisany sposób porozumiewać co do zakupów, a one załatwiają sprawę najszybciej, jak potrafią, włącznie z dostawą sprawunków do domu.
Zamówione produkty trafiają do mnie po góra dwóch godzinach; tak to przynajmniej wygląda w moim życiu w Massachusetts w roku 2020.
A jeśli zamawiam późnym wieczorem, przyjeżdżają następnego dnia rano. Zakupy już zrobiłam, nie miałam w tym specjalnego udziału, bo wszystko przyjechało pod mój dom w mikrolodówkach.
Asystent daje znać, że transport czeka pod drzwiami. Rozpakowuję zakupy i słyszę, że asystent rozpoczyna rozmowę: – Wyczuwam, że mało dzisiaj rozmawialiśmy. Czy mam ci opowiedzieć żart, jaki znalazłem w sieci?
– Tak – odpowiadam.
Po chwili śmiejemy się razem.
[…]
W świecie przyszłości nadszedł wieczór. Chcę odpocząć, miło spędzić czas. Może zdecyduję się na Netflixa?
Waham się pomiędzy filmem a książką, ale taką, w której sama byłabym bohaterką. Jeśli chodzi o taką interaktywną książkę, to jest to rzeczywiście dopiero pieśń przyszłości, ale w zakresie spersonalizowanej oferty filmowej mamy już w 2020 roku różne rozwiązania.
Netflix podąża szybkim krokiem ku przyszłości i jest bardzo interesującym dla obserwatorów graczem na rynku rozrywki, a znowu dla Hollywood czy stacji telewizyjnych – groźnym rywalem.
Używa sieci neuronowej, zasilając rekomendera, czyli system rekomendacji oparty na twoich preferencjach. Ten rating ma bardzo zbiasowany charakter, bo mechanizm, który proponuje mi coś do oglądania, podsuwa filmy podobne do tych, jakie już widziałam.
W przyszłości możemy pójść dalej; może będę chciała wziąć udział w hybrydowej grze wirtualnej, stając się jedną z jej bohaterek? Albo na tej samej zasadzie obejrzeć film?
Korzystając z systemu narracyjno¬kontekstowego, który reaguje na to, co mówię, wpływam na narrację zbudowaną przez algorytm.
Dzieje się to w czasie rzeczywistym, fabuła zmienia się "od ręki". Chodzi więc o coś więcej niż scenariusz filmu – chodzi o grę.
Z nałożonymi goglami VR podróżuję przez Tybet lub gdzie indziej, gdzie usytuowałam grę. Mogę też zaprosić więcej osób do tej gry, która jest formą współuczestnictwa w wirtualnej rzeczywistości, abyśmy razem się pobawili w emocjonujące przygody.
Takie spersonalizowane produkty popkultury, spersonalizowane narzędzia rozrywki będą popularne. Dzięki wpisaniu w system narracyjny moich własnych parametrów sieć neuronowa stworzy opowieść, i to w dodatku wciągającą, barwną, ciągnącą się w nieskończoność.
Bo asystent oparty na sieci neuronowej w tym przypomina człowieka, że jego sposób wyszukiwania i myślenia nie jest oczywisty. Może mnie mocno zaskoczyć tym, co zaproponuje.
Nie musi być to zawsze zaskoczenie pozytywne, ale propozycje z pewnością nie będą schematyczne. Asystent nie będzie jechał palcem po liście tego, co już zobaczyłam, i podsuwał dzieł tego samego autora, reżysera. W zamian zaproponuje coś, czego dotąd nie widziałam, nie spróbowałam.
Nie wspomniałam jeszcze o innym ciekawym, twórczym aspekcie obcowania z SI. Mogę tworzyć dzieła sztuki, czy też quasi¬sztuki, wspólnie ze sztuczną inteligencją.
Jeśli wieczorem, na przykład, przyjdzie mi ochota coś skomponować, to już w 2020 roku mogę skorzystać z takich systemów sztucznej inteligencji, które pomagają w procesie twórczym.
W ramach zaproponowanych przez Google’a prostych eksperymentów z SI do dyspozycji wszystkich użytkowników (bez specjalnych umiejętności w zakresie kodowania) jest sieć neuronowa, która myśli, jak skończyć utwór, który my zaczęliśmy.
Mogę też mieć do dyspozycji myślącą sieć, która będzie malować ze mną obrazy. Nie sądzę, by to była droga do sławy dla ujawnionego geniuszu plastycznego, bo wszyscy będziemy mieć tę samą możliwość, wszyscy będziemy więc takimi samymi artystami. Dlatego sądzę, że ludzie na nowo zdefiniują pojęcie sztuki, w tym sztuk plastycznych.
Przecież w 2020 roku każdy może robić zdjęcia, używać różnych filtrów w aparatach, ale mimo wszystko jest coś takiego jak warsztat fotograficzny, który można mieć lub nie – nie każdy jest profesjonalnym fotografem.
Nie wierzę w profesjonalizację wszystkich ludzi na wszystkich polach nawet w przyszłości.
Przejdziemy raczej przez zbiorowy proces ustalania nowego standardu średniości. Ty będziesz bardziej zadowolony z obrazów, które namalowałeś z SI, niż z tych, które próbowałeś stworzyć sam, ale sąsiad za ścianą w obu przypadkach przyjmie efekty z równym zadowoleniem.
A skoro wszyscy będą mogli robić wszystko, o tych wytworach nie powiemy "sztuka".
Tu się pojawia interesująca okoliczność: przebywamy w immersyjnym, wirtualnym środowisku, z którego można wyjść, rezygnując z gry, wygrać albo się poddać.
Inny wariant, trochę łagodniejszy, zakłada, że zaczynam oglądać perypetie bohaterów gry, czasem włączam się w nią, a czasem pozostaję z boku; uruchamia się wtedy kamerka, która cały czas na mnie patrzy, i uaktywnia się system detekcji mimiki.
W roku 2020 dysponujemy już takimi systemami. Mechanizm przygląda się moim reakcjom i jeżeli zaczynam się nudzić, wtedy pada propozycja: "Chcesz okradać dalej muzea w Paryżu czy wolisz popływać z delfinami?".
System może nawet podać do wyboru kilka różnorodnych scenariuszy moich dalszych przygód w tej grze w formie zachęcających trailerów filmowych.
Oczywiście, system podpowiada te ewentualności na podstawie moich dotychczasowych preferencji albo łączy wcześniejsze preferencje z tym, co dzisiaj zobaczył na mojej twarzy. Jaką mam mimikę i jaki humor ona oznacza?
Albo jeszcze inne rozwiązanie – system nadal improwizuje. Wybór scenariusza gry zakłóca mi wiadomość od mojej grupy znajomych, którzy wybierają się do kina i zapraszają mnie do wspólnego spędzenia czasu.
Film, jaki proponują, będzie opowiadał o ludziach, którzy w przeszłości, załóżmy, że w 2020 roku, bali się sztucznej inteligencji.
To hit sezonu, francuska komedia, obok nowych gwiazd kina grają w niej moje ulubione aktorskie hologramy.
Asystent nie dość, że już wyprowadza autonomiczny samochód z garażu, to jeszcze podsuwa mi ubranie na wieczór oraz czyta na głos recenzje filmu.
Kina – budynki i miejsca kultury, jakie znamy dziś, wówczas rozszerzą maksymalnie swe funkcje do obiektów multikulturowych: dźwięk, obraz, jedzenie, siłownia, VR, koncerty – będzie można w nich uprawiać aktywność na wielu obszarach, a pomogą w tym także humanoidalne roboty.
Tak, to będzie wieczór w kinie. Nie wiem, o której wrócę, ale na pewno asystent będzie mi przypominał o tym, że muszę się położyć spać, bo jutro mam kolegium redakcyjne o dziesiątej.