Trwa ładowanie...

Bartosz Frąckowiak: "Człowiek nie może zostać zredukowany do twardych danych"

Tegoroczne Biennale Warszawa poruszać będzie takie tematy, jak technologia, algorytmy, sztuczna inteligencja. Jak algorytmy nas inwigilują? Czy można przechowywać dane w DNA? I co sztuka ma z tym wspólnego? Rozmawiamy z kuratorem wydarzenia, Bartoszem Frąckowiakiem.

Kadr z wideo "The Cleanroom Paradox" Angeli Neubauer i Eszter ZwicklKadr z wideo "The Cleanroom Paradox" Angeli Neubauer i Eszter ZwicklŹródło: Materiały prasowe
d3y9f0z
d3y9f0z

Karolina Stankiewicz: Skąd pomysł na to, by Biennale skupiło się na technologiach?

Bartosz Frąckowiak: Bardzo długo pracowaliśmy nad programem Biennale, które miało odbyć się w 2021 r. i miało dotyczyć nowych form autorytaryzmu. To było jeszcze przed eskalacją wojny w Ukrainie. Analizowaliśmy te formy autorytaryzmu jako rodzaj zjawiska globalnego, które ma swoje lokalne odsłony, np. na Filipinach, w Rosji, w Europie Środkowo-Wschodniej z jej zwrotem prawicowym, to były też czasy Donalda Trumpa w USA. Ale analizowaliśmy też formy autorytaryzmu, który nie jest związany stricte z władzą polityczną, ale z władzą korporacyjną czy kwestiami kapitału, poprzez tworzenie monopoli, wymuszanie różnych rzeczy na obywatelach itd.

I technologia ma w tym udział?

Stopniowo odkrywaliśmy, że technologia jest świetnym filtrem, by opowiadać o zjawiskach, które dzieją się w sferze politycznej, ekonomicznej, ale też ekologicznej, związanej z wydobyciem surowców, z naturą. Dzięki niej mamy wgląd w te różne obszary. Z drugiej strony sama jest narzędziem budowania i utrzymywania autorytarnej władzy. Ale może też być obszarem, w którym buduje się rozmaite alternatywy, służące bardziej równościowym, inkluzywnym, faktycznie demokratycznym projektom. W trakcie pracy odkryliśmy, że o jakiejkolwiek strefie byśmy nie rozmawiali, wpływ technologii będzie kluczowy dla tego, jak ta strefa będzie się rozwijała.

Dezinformacyjne wrzutki nt. Ukraińców. "To permanentne działanie"

Tegoroczne Biennale nosi tytuł "Widzące kamienie i przestrzenie poza Doliną". Wyjaśnisz, o co chodzi?

Te "widzące kamienie" to tolkienowskie palantíry. U Tolkiena były one obiektami, które pozwalały określonym użytkownikom widzieć wydarzenia i zjawiska bez ograniczeń czasoprzestrzennych. Ta metafora posłużyła Peterowi Thielowi jako nazwa firmy Palantir, która powstała jako mały startup. To była firma, której celem było zajmowanie się analityką danych na potrzeby amerykańskich agencji rządowych, m.in. NSA czy CIA. Później także ICE, czyli agencji, która się zajmuje ochroną granic. Była odpowiedzialna za słynne rozdzielanie rodzin, które przechodziły przez granicę meksykańsko-amerykańską w czasach Trumpa.

d3y9f0z

Kiedy powstał Palantir?

Po ataku na World Trade Center, kiedy nastąpiła zmiana paradygmatu z "nigdy więcej wojny" na "wojnę z terroryzmem", a służby otrzymały przyzwolenie na coraz większą inwigilację. Palantir stał się istotnym źródłem inspiracji dla projektów, które powstają na styku technologii i "etyki". Peter Thiel jest osobą, która bardzo otwarcie wyraża swoje wizje odnoszące się do prozachodniego autorytarnego modelu. Mówi, że Palantir powstał po to, by "uratować Shire", czyli konserwatywną, idylliczną krainę, nałożoną na geopolityczną mapę przez Thiela jako utożsamienie Zachodu.

Firma zajmująca się analizą danych ma bronić Zachodu?

Co do założenia Palantir ma służyć ochronie wartości związanych z Zachodem, z białą, amerykańską kulturą, przeciwko zagrożeniom płynącym z barbarzyńskiego Południa. Jest tu mocny islamofobiczny wątek w tle. Przed wyborami w USA w 2016 r. Peter Thiel jako jeden z ważnych udziałowców przekonał Zuckerberga do tego, by otworzył Facebooka na różne grupy alt-rightowe, które wcześniej były tam blokowane. Wszystko po to, by sterować wyborami elektoratu. Dolina Krzemowa wyrasta z wartości związanych z kontrkulturą. Dużo było ezoteryki, mówienia o jednoczeniu ludzi. Później się okazało, że to wszystko jest ściemą. Do tego dochodziło radykalne podążanie za innowacją, tzw. "cyfrowa dysrupcja". I tutaj na scenę weszli tacy bohaterowie, jak Peter Thiel, którzy są bardzo wpływowi, mają swoje fundusze, wspierają takie firmy, jak Andúril – nazwa znów wzięta z Tolkiena – która zajmuje się tworzeniem software'u i hardware’u do ochrony granic.

Kadr z wideo "After Scarcity", Bahar Noorizadeh Materiały prasowe
Kadr z wideo "After Scarcity", Bahar NoorizadehŹródło: Materiały prasowe

To brzmi, jakbyśmy dzisiaj pojmowali technologię jako polityczne narzędzie inwigilacji.

To jest ciekawe w kontekście np. lat 60., 70., a nawet 40. i 50., kiedy odbywały się słynne konferencje cybernetyczne, na których omawiane były m.in. inkluzywna sieć, relacje pomiędzy psychologią gestalt a sztuczną inteligencją, sposoby tworzenia sieci neuronowych, psychologia dzieci w kontekście informatycznym. Celem konferencji, jak i w ogóle projektu cybernetycznego, była integracja nauk. Jest to bardzo ciekawy moment w myśleniu o technologii i gdybyśmy mieli, analogicznie do Tolkiena i dzisiejszych czasów, znaleźć autora symbolicznego dla tego momentu, to pewnie byłby to Stanisław Lem z książką "Summa technologiae", gdzie technologia była rozumiana jako coś, co jest w służbie człowieka, w służbie emancypacji, coś powiązanego z ideą progresu.

d3y9f0z

Czy dzisiaj już jej się tak nie pojmuje?

Ona wciąż trochę jest tak traktowana, ale jak się spojrzy na to, jak działa, to okazuje się, że jest niezwykle konserwatywna i regresywna. Świat fantasy to świat mitologii, powtórzeń, w przeciwieństwie do świata science-fiction, który ma być światem prawdziwej nowości, która niesie ze sobą pewne zagrożenia, ale jednak daje też nadzieję. A dzisiaj okazuje się, że tkwimy w zaklętym kole tego samego, w strukturach mitologicznych.

Jest taka praca "Nooscope" Matteo Pasquinelliego i Vladana Jolera, którą można zobaczyć na naszej wystawie. Ujawnia ona to, w jaki sposób sztuczna inteligencja i algorytmy uczenia maszynowego nie tylko powtarzają i reprodukują najbardziej powszechne stereotypy, ale i je wzmacniają. Zaczyna się od tego, że ktoś musi wybrać bazy danych, by te algorytmy mogły się z nich uczyć. I już w tę decyzję wpisane są stereotypy. Dobrze było to widać, kiedy Microsoft stworzył bota Taya, który uczył się z rozmów z internautami na Twitterze. W ciągu 24 godzin stał się rasistą, homofobem i seksistą, bo nakarmił się takimi treściami.

d3y9f0z

Co ciekawe, na kolejnym etapie algorytm likwiduje to, co jest anomalią, to, co odbiega od pewnej średniej, a zarazem wzmacnia tendencje (w tym stereotypy) obecne w bazie danych i narzuconych sposobach klasyfikacji. Rzeczywistość zostaje więc spłaszczona, jeszcze bardziej znormalizowana. Wszystko to, co jest niestandardowe, oryginalne, zostanie wyeliminowane, a uprzedzenia ulegają wzmocnieniu. Co więcej, algorytmy uczą się na podstawie tego, co już było. Jeżeli próbują w jakiś sposób przewidzieć przyszłość czy namalować obraz, to zawsze będzie to odtwórcze, bo stworzone na podstawie tego, co już było. Będzie jedynie predykcyjną wariacją na motywach z przeszłości.

Bartosz Frąckowiak, kurator Biennale Warszawa Materiały prasowe
Bartosz Frąckowiak, kurator Biennale WarszawaŹródło: Materiały prasowe, fot: Magdalena Jankowska

Do tego algorytmy działają w systemie zero-jedynkowym. Tymczasem często mówi się o coraz większej polaryzacji społeczeństwa, wydaje nam się coraz częściej, że świat podzielony jest na pół. Czy widzisz w tym jakąś zależność?

Jest taka książka Svitlany Matviyenko "Cyberwar and Revolution: Digital Subterfuge in Global Capitalism", dotycząca cyberwojny, w której ona mówi o tym, że algorytmy uczenia maszynowego służą do analizy naszych danych. Aktualnie na masową skalę wyciągane są od nas dane na temat naszych najbardziej intymnych, prywatnych, emocjonalnych sfer życia. O tym, jak budujemy relacje, o naszych uzależnieniach, nałogach, o wszystkim. Algorytmy są w stanie stworzyć bardzo precyzyjne profile psychologiczne.

d3y9f0z

A to można później wykorzystać.

Matviyenko pisze, że algorytmy po to zbierają te dane, by potem dokonywać behawioralnych manipulacji. Skłaniani więc jesteśmy do pewnego działania, które jest zgodne z interesem określonej firmy, korporacji czy partii politycznej. Matviyenko stawia taką tezę, że cyberwojna to nie tylko ataki hakerskie, dzieje się ona również w sferze społecznej, np. w mediach społecznościowych tworzone są kompletnie fikcyjne antagonizmy. Algorytm wspiera tę polaryzację, bo na przykład Facebook wzmacnia to, co jest mocnym jednoznacznym komunikatem i ma szerszą dystrybucję niż bardziej zniuansowane treści. Tak działa choćby system lajków – albo jesteś w afirmacji czegoś, albo w hejcie. Te fikcyjne wojny, które toczymy w mediach społecznościowych, łatwo mogą przenieść się do rzeczywistości. Jest to dobrze widoczne przy okazji wojny w Ukrainie, kiedy nagle zaczęły się pojawiać wątki związane z banderowcami, wprowadzane przez stronę rosyjską. Polaryzacja ta nie jest zatem przypadkowa. W moim odczuciu ma związek z algorytmami.

Czy sztuka, którą będziecie prezentować na Biennale poszukuje wskazówek, jak się przed tym chronić?

Wystawa składa się z dwóch tendencji: jedna jest krytyczna i chodzi w niej o to, by odkryć zasady działania technologii taką, jaka jest, by ją trochę rozbroić i zobaczyć, jak wiąże się z polityką, władzą, kapitałem, jak korzysta z pewnych narracji i wyobrażeń. Narracji na temat chmury, albo narracji tolkienowskiej i jak to się ma do kwestii autorytaryzmu i polityki. Wreszcie, by zobaczyć, że internet jest fizyczny i materialny, że składa się on z konkretnych surowców i metali gdzieś wydobytych, przewiezionych, wyprodukowanych przez kogoś i że w kontekście zmian klimatycznych emituje CO2.

d3y9f0z

A druga tendencja?

To obszar związany z alternatywami. Będzie na przykład dyskusja wokół zdecentralizowanego internetu, blockchainu, Web 3.0, który jest w kontrze na poziomie ekonomii politycznej w stosunku do internetu, jaki znamy, gdzie są gigantyczne granice i obszary, w których rządzą reguły narzucone przez konkretne korporacje. Nie jest to obszar wolności. Są też takie projekty, które wychodzą poza tradycyjne zastosowania technologii, pozwalają spojrzeć na nią z nieco innej perspektywy, jak "Bird Language", w którym algorytm uczenia maszynowego został zastosowany do tego, by nauczyć się języka skowronka i spróbować nawiązać dialog z ptakiem. Mamy pracę "Grow Your Own Cloud", która stawia pytanie o to, czy nasze dane możemy przechowywać w DNA roślin. To może brzmieć abstrakcyjnie, ale to się dzieje i jest bardzo efektywne.

Zdaje się, że wystawa będzie mocno powiązana z nauką.

d3y9f0z

Część artystów jest też badaczami z różnych dziedzin. Na przykład Špela Petrič, autorka pracy Vegetariat, jest też badaczką z obszaru biologii, technologii i antropologii. Każdy z artystów i artystek współpracuje z ekspertami czy badaczkami. W przypadku "Grow Your Own Cloud", wpisywanie danych w DNA roślin jest możliwe do zrealizowania tylko w specjalistycznych laboratoriach, a do tego trzeba mieć zgodę komisji bioetycznej, by wyhodować taki organizm. To wszystko dzieje się na styku nauki, technologii, sztuki, literatury. Istotna jest też narracja na temat technologii, bo to też formatuje naszą wyobraźnię.

Widok wystawy "The Eternal Network" Materiały prasowe
Widok wystawy "The Eternal Network"Źródło: Materiały prasowe, fot: Luca Girardini

Czy wojna w Ukrainie zmieniła koncept tegorocznego Biennale?

Bardzo mocno. Z jednej strony mieliśmy poczucie, że wiele z naszych założeń materializuje się w tragiczny sposób. Tematy cyberwojny, manipulacji behawioralnych – to się po prostu dzieje. Ale z drugiej strony pomyśleliśmy, że ważne jest to, by zaakcentować te wątki ukraińskie i regionalne. Dlatego będziemy mieć m.in. dzieło Olka Radynskiego, ukraińskiego artysty, który przygotowywał dla nas pracę opartą na materiale z archiwum filmowego pod Kijowem. Niestety na skutek wojny utracił dostęp do tego archiwum, więc postanowił przygotować pracę o Nord Stream 2. To zupełnie nowy koncept. Mamy też pracę Magdy Szpecht "Uliczne cmentarze", która wykorzystuje technologię i dane do śledzenia i dokumentacji różnych form przemocy, nadużyć i łamania praw człowieka. Jest mapa miejsc, gdzie Rosjanie pochowali osoby zamordowane w Mariupolu. Wszystko po to, by przeciwdziałać zacieraniu śladów przez Rosjan. Ale będzie też praca, która będzie dotyczyła sytuacji na polsko-białoruskiej granicy, na której obowiązują zupełnie inne zasady traktowania uchodźców niż na granicy polsko-ukraińskiej.

Z tego, co mówisz, prace, które będziecie prezentować, będą bardzo aktualne, politycznie zaangażowane. Ale czy będzie w nich też wymiar uniwersalny? Coś, co będzie rezonować za kilka lat?

Wystawa opowiada trochę o teraźniejszości i trochę o wizjach przyszłości, ale robi to po to, by poprzez wgląd krytyczny uświadamiać pewne mechanizmy i sposoby działania technologii i to, jak one są wplecione w relacje władzy. Jest też po to, aby pokazywać i dawać nam narzędzia do sprawczego projektowania przyszłości i by robić to z odblokowaną wyobraźnią.

Bardziej science-fiction niż fantasy?

Właśnie tak. Do tego ta wystawa ma też uświadamiać nam, że to, co algorytmy widzą, jest tylko korelacją, a nie widzeniem związków przyczynowo-skutkowych. Sztuczna inteligencja nie jest w stanie rozumieć świata tak, jak jest to w stanie robić człowiek. Ważnym postulatem tej wystawy jest też to, by wrócić do myślenia o człowieku jako o niepowtarzalnym bycie, który nie poddaje się kwantyfikacji, nie jest tylko i wyłącznie modelem statystycznym i nie może zostać do niego zredukowany. Człowiek ma też złożoną sferę nieokreśloności, która nie poddaje się szufladkowaniu w twardych danych. Nie chodzi o naiwną ucieczkę od technologii, ale o świadome korzystanie z niej.

II edycja Biennale Warszawa zatytułowana "Seeing Stones and Spaces Beyond the Valley/ Widzące kamienie i przestrzenie poza Doliną" odbędzie się w warszawskich Domach Towarowych Wars Sawa Junior. Trwać będzie od 3 czerwca do 17 lipca.

Karolina Stankiewicz, dziennikarka Wirtualnej Polski

Masz newsa, zdjęcie lub filmik? Prześlij nam przez dziejesie.wp.pl
d3y9f0z
Oceń jakość naszego artykułu:
Twoja opinia pozwala nam tworzyć lepsze treści.

Wyłączono komentarze

Jako redakcja Wirtualnej Polski doceniamy zaangażowanie naszych czytelników w komentarzach. Jednak niektóre tematy wywołują komentarze wykraczające poza granice kulturalnej dyskusji. Dbając o jej jakość, zdecydowaliśmy się wyłączyć sekcję komentarzy pod tym artykułem.

Paweł Kapusta - Redaktor naczelny WP
Paweł KapustaRedaktor Naczelny WP
d3y9f0z