Big data to jedno z tych pojęć, bez których trudno scharakteryzować naszą współczesność. Termin ten odnosi się do baz danych, które charakteryzują się dynamicznymi zmianami zapisanych w nich informacji. Opracowanie big data wymaga skomplikowanych metod gromadzenia i ma na celu wyprodukowanie wiedzy na konkretny temat. Systematycznie zbierane dane mogą stworzyć obraz danej aktywności człowieka lub innych aktorów (na przykład zwierząt lub maszyn). Bazy danych mogą być zatem obiektem różnorakiej analizy: matematycznej, socjologicznej, estetycznej czy wizualnej. Przykładem tej ostatniej są badania prowadzone na przykład przez Lva Manovicha zajmującego się wspólną historią komputeryzacji i nauk humanistycznych [Manovich 2013; 2016a; 2016b] Proces gromadzenia big data wzbudza wątpliwości, gdyż nie zawsze przebiega za zgodą i wiedzą osób zainteresowanych. Także sposób późniejszego wykorzystania zebranych informacji, co dzieje się przykładowo w systemach masowego nadzoru lub kontroli, spotyka się ze społecznym sprzeciwem. Akademicy i artyści szybko zajęli się tymi kwestiami, stawiając je za przedmiot swoich badań i poszukiwań.
Finn Brunton i Helen Nissenbaum, wykładowcy i badacze na Wydziale Mediów, Kultury i Komunikacji Uniwersytetu w Nowych Jorku, skupili się na społecznym fenomenie zaciemniania (obfuscation). Punktem wyjścia ich analizy opublikowanej w książce Obfuscation. A User’s Guide for Privacy and Protest [2015] jest obserwacja działań hakerów sprzeciwiających się gromadzeniu danych na temat aktywności użytkowników technologii informatycznych. Chodzi tu o proste czynności, które wykonujemy każdego dnia, jak używanie karty płatniczej lub kredytowej (nie tylko online), rozmowy telefoniczne, wysyłanie wiadomości email lub sms i wszystkie inne działania w internecie (przeglądnie stron www. etc.). Każda taka aktywność pozostawia ślad – informację, katalogowaną w ogromnych bazach danych.
Zaciemnianie zostało zdefiniowane przez autorów książki jako forma oporu o raczej lokalnym zasięgu, mająca na celu dostarczanie nieprawdziwych lub mylących informacji, które miałaby zakłócić zbieranie danych lub unieważnić w jakimś stopniu wiarygodność docelowego zbioru składającego się na konkretną bazę danych. Wprowadzanie w błąd systemu jest świadomym sprzeciwem wobec mechanizmów nadzoru, taktyką, która ma kwestionować jednocześnie ich celowość i wydajność. Autorzy znajdują przykłady zaciemniania także poza światem technologii informacyjnych. Przytaczają przykład z okresu drugiej wojny światowej, kiedy to król Danii i niektórzy jego poddani nosili gwiazdę Dawida na przedramieniu, by sprzeciwić się deportacji Żydów z ich kraju. Podobne zachowania udokumentowano w Belgii, Francji, Holandii czy Polsce [Brunton, Nissenbaum 2015: 171]. Inicjatywy odnoszące się do zastosowania zaawansowanych technologii nadzoru, podobnie jak inne przeze mnie opisywane, nie są działaniem zakrojonym na szeroką skalę, a raczej manifestacją autonomii w dokonywaniu wyborów oraz sprzeciwem wobec narzuconej kontroli. Brunton i Nissenbaum piszą o asymetrii władzy, której przewaga wynika z zakresu dostępu do wiedzy i technologii oraz manipulacji informacjami.
Pozorne poczucie wolności i swobody ruchów towarzyszące użytkownikom technologii informacyjnych jest efektem zamierzonym przez jej twórców. James Bridle, brytyjski technolog, eseista, badacz i artysta wizualny, w tekście Big Data. No, Thanks [Bridle 2015] opisuje pokrótce historię komputeryzacji oraz dzieje jej związku z przemysłem wojennym i zbrojeniowym. W opisie tego epizodu dowodzi trwającego procederu zaciemniania i stopniowego ograniczania dostępu metod działania technologii informatycznej. Pokazuje pokrótce ewolucję budowy komputera: od skonstruowanej na Uniwersytecie w Pensylwanii w latach 1941-46 maszyny ENIAC, która zajmowała kilka pomieszczeń i wymagała dokonania setek tysięcy ręcznych połączeń kabli, kończąc na urządzeniach powszechnie dziś stosowanych jak smartfon czy laptop.
W komputerze ENIAC dosłownie się żyło. Był postrzegany przez swoich twórców jako komputer osobisty ze względu na nakłady pracy włożone w jego stworzenie i utrzymanie, a także z uwagi na konieczność ciągłej konserwacji, jakiej wymagał. Polegała ona choćby na wyciąganiu robaków spomiędzy kabli (stąd też dzisiejsze wyrażenie to bug oznaczające złe funkcjonowanie, zacinanie się urządzenia elektronicznego lub samo bug oznaczające błąd). Dzisiejszy komputer określany jest mianem osobistego, gdyż najczęściej należy tylko do jednego użytkownika i łatwo się z nim przemieszczać. Zaciemnianie, w tym przypadku, w rozumieniu innym niż Bruntona i Nissenbaum, zostało dokonane przez samą technologię, która z czasem stała się niewidoczna. Jej celem jest wykluczenie medium, umożliwienie doświadczenia totalnego nie zapośredniczonego przez ekran czy klawiaturę [Bolter, Grusin 2000: 333]. Widać to doskonale w projektach technologicznych takich jak Cloud – serwerów do przechowywania danych, które są dostępne w każdym miejscu i czasie. Ten swobodny dostęp do danych, ujęty w metaforze chmury, sprawia, że użytkownik zapomina o fizycznej stronie każdej bazy danych. Podobnie jak w przypadku bug nazwa cloud pochodzi z języka używanego przez programistów. Chmura, w sytuacji dyskusji nad rozwiązaniem konkretnego problemu technicznego, symbolicznie zastępowała kwestię chwilowo nieważną, jeszcze nie wyjaśnioną i nie mającą w danej chwili wpływu na zaistniałą sytuację. Schematyczny rysunek chmury pojawiał się na tablicach z rozrysowanymi schematami systemów informatycznych [Bridle, Matafora chmury, 2016] jako znak sygnalizujący temat nierozwikłany i do wyjaśnienia w najbliższym czasie.

Kwestie nieuchwytności i pozornego zaniku urządzeń technologicznych oraz wiążącego się z tym słabszego odczuwania permanentnej kontroli, znajdują się w centrum artystycznych praktyk Jamesa Bridle’a. Każda z prac z serii Drone Shadow (od 2012) jest poprzedzona historycznym rozeznaniem dotyczącym konkretnego miejsca pod względem geograficznym, jak i politycznym, a następnie udokumentowaniem na blogu i stronie internetowej artysty [1]. Tytułowe cienie dronów, zaznaczone białym konturem na ulicach lub w innych miejscach publicznych, przytaczają każdorazowo autentyczną historię związaną z użyciem tego urządzenia w kontekście danego kraju, miasta lub precyzyjnie wskazanego miejsca [Bridle, Under the Shadow of the Drone, 2012]. Drony mogą swobodnie monitorować przestrzeń publiczną, fotografując konkretne zdarzenia lub architekturę. W niedawno zrealizowanym projekcie w Sankt Petersburgu Bridle zmodyfikował swoją pracę, obrysowując przed tamtejszym Street Art Museum cień satelity Persona/Kosmos 2486. To urządzenie zwiadowcze wykonało między innymi dokumentację fotograficzną terenów ukraińskich objętych wojną, z których wystrzelono pocisk-przyczynę tragedii lotu MH17 malezyjskich linii lotniczych w lipcu 2014 roku [Bridle, Satelite Shadow 001, 2016]. Fotografie, wyjątkowo udostępnione publicznie przez rosyjski wywiad, miały dowodzić winy Ukrainy. Do dziś nie wiadomo czy nie zostały zmodyfikowane – na przykład poprzez obniżenie ich rozdzielczości [Bridle, Satelite Shadows, 2016].
Bridle, odrysowując domniemane cienie dronów i satelity, przypomina nam, że jesteśmy wciąż obserwowani, a nasz dostęp do uzyskanych informacji jest skrajnie ograniczony. Ten artystyczny gest, bardzo prosty i subtelny jest mocnym stwierdzeniem politycznym. W każdej pracy z opisanej serii Bridle przyjmuje postawę krytyczną nie wobec samej technologii, lecz celów do których jest wykorzystywana przez siły wywiadowcze. Prosty kontur maszyny nie nawołuje do aktywnego przeciwdziałania, jest raczej cynicznie gorzkim komentarzem na temat politycznych realiów. To ciekawy głos w dyskusji na temat gromadzenia big data oraz technik zaciemniania tego procederu. Projekty Bridle’a pod pewnymi względami przypominają opisywane przez Bruntona i Nissenbaum przykłady zbierania danych – nadzór kamer wideo, monitorowanie transakcji finansowych czy wymuszanie logowania się na portalach internetowych wymagających podania danych W obu przypadkach możemy mówić o zaburzeniu równowagi władzy wynikającym z dostępu do szczegółowej wiedzy dotyczącej ruchów człowieka zarówno w realnej, jak i wirtualnej przestrzeni. Te informacje umożliwiają między innymi nadużywanie narzędzia reklamy – oferty handlowe adresowane bezpośrednio do danej osoby przygotowywane są na podstawie historii wyszukiwania lub ostatnio dokonanych zakupów. Zaciemnianie stosowane przez firmy prywatne i instytucje państwowe to jeden z elementów naszej rzeczywistości, której opisu konsekwentnie podejmuje się Bridle w swojej praktyce artystycznej [Bridle 2014: 20-26; Bridle, The New Aesthetic and its Politics, 2012].

Projekt zaciemniania w myśl autorów Obfuscation. A User’s Guide… ma na celu zmylenie algorytmów, które może być realizowane przy użyciu różnych strategii. Artyści wykorzystują niektóre z nich w swoich projektach dotyczących nadużywania technologii nadzoru i metod masowego gromadzenia informacji. Brunton i Nissenbaum wyróżniają między innymi zaciemnianie kolektywne, czyli wymagające zaangażowania grupy ludzi tworzących np. sieć. Taki nieformalny zespół osób to przede wszystkim potencjalna mini baza danych, która może w skoordynowany sposób zaciemniać informacje na swój temat. Przykładem może być fałszowanie danych biometrycznych, które wykorzystywane są w systemach publicznego nadzoru. Technologie rozpoznawania rysów twarzy i kategoryzowania osób na mniej lub bardziej niebezpiecznych dla porządku publicznego, są powszechnie stosowane przez siły porządkowe. Słynnym incydentem, który ujawnił, jak ważną rolę odgrywają one w utrzymaniu ładu publicznego, była interwencja nowojorskiej policji we wrześniu 2011 roku podczas manifestacji Occupy Wall Street Movement. W parku Zuccotii część manifestantów założyła maski Guy Fawkesa, znaku rozpoznawczego hakerskiego ruchu Anonymus. Zostali oni zatrzymani pod pretekstem łamania prawa sprzed ponad wieku (sic!), zakazującego zakrywania twarzy w sytuacji innej niż zaplanowana manifestacja (czyli na przykład karnawał). Osoby odmawiające wykonania skanu ich twarzy na posterunku policji miały zostać zatrzymane na dłużej [Blas, Escaping the Face, 2013].
Sposób potraktowania manifestantów zakrywających twarz w miejscu publicznym zainspirował Zacha Blasa, artystę, teoretyka sztuki, literatury i teorii queer, pracującego na Duke University, do przygotowania projektu opartego na współpracy z różnymi grupami reprezentującymi mniejszości społeczne (etniczne, religijne, etc.) w celu opracowania strategii zaciemniania danych biometrycznych. Artysta-aktywista, znany jest z długoterminowego projektu Contra-Internet (od 2014) [Blas Contra-Internet Aesthetics, 2014: 86-99; Blas, Kontra-Internet, 2014; Blas 2016], krytycznego wobec rosnącej popularności pojęcia post-internetowości, charakteryzującego ogół praktyk artystycznych związanych z siecią. W ramach projektu Contra-Internet Blas poszukuje odpowiedzi na pytanie co znajduje się przed, po i ponad tym wszystkim co współczesna myśl humanistyczna kwalifikuje jako „post-ˮ [Blas, Contra-Internet Aesthetics, 2014: 88]. Artysta formułuje również postulaty definiujące estetykę kontr-internetową. Zakładają one działania mające na celu krytykę internetu jako neoliberalnego narzędzia nadużywającego władzy, czy podtrzymującego dyskryminujące społeczne stereotypy. Jeszcze w 2012 roku Blas rozpoczął pracę nad inną wielowątkową inicjatywą – Facial Weaponization Suite (2012-2014) – obejmującą akcje publiczne, warsztaty, wykłady czy realizację obiektów artystycznych. Ten kolektywny projekt zakładał przede wszystkim współpracę z mniejszościami społecznymi, których marginalizacja wynikała z pochodzenia, płci czy orientacji seksualnej. Fag Face Mask powstało po sesji warsztatowej z członkami i członkiniami społeczności queer, którzy/które pozwolili/pozwoliły zebrać swoje dane biometryczne. Skany twarzy uczestników i uczestniczek warsztatów zostały nałożone na siebie za pomocą programu graficznego tworząc finalnie projekty amorficznych masek. Kilka z nich zostało wykonanych z plastiku i wystawionych w galerii sztuki [Blas, Facial Weaponization Communiqué, 2013]. Przede wszystkim są jednak wykorzystywane w miejscach publicznych w czasie hapenningów, perfomansów oraz innych akcji artysty i uczestników/uczestniczek projektu.


Blas wzywa do użycia naszej twarzy – źródła informacji – jako broni [Blas, Facial Weaponization Communiqué, 2013]. Skuteczności działania zaciemniania upatruje on w grupie i kolektywnych akcjach, których uczestnicy i uczestniczki walczą o prawo do prywatności. Maska symbolizuje odmowę bycia częścią systemu i stanowi akt sprzeciwu wobec dyskryminującej standaryzacji. Ukrywanie informacji dotyczących tożsamości, tego bezcielesnego kapitału każdego człowieka, pozwala na uwolnienie jednostki od dyskryminującego zaszufladkowania grup społecznych predefiniowanych na podstawie cech zewnętrznych, takich jak ubiór, kolor skóry czy anatomia ciała.
Pojawia się pytanie o pożyteczność tego typu apeli i kwestię etyczności stosowania techniki zaciemniania, którą podejmują również w swojej publikacji Brunton i Nissenbaum. Autorzy przyznają zgodnie, iż zaciemnianie nie może zaszkodzić systemom gromadzenia danych, jedynie dokonać zanieczyszczenia zbioru lub przyczynić się do tworzenia szumu wśród danych. Nawet te informacje, które są gromadzone i wykorzystane w słusznym celu, jak zapobieganie epidemiom, zdiagnozowanie potencjalnych przyczyn zmasowanego wydarzenia lub ochrona przed terroryzmem, nie zostaną sparaliżowane przez oddolną i lokalną inicjatywę zaciemniania [Brunton, Nissenbaum 2015: 181]. Ta metoda, niechętnie stosowana przez wielkie prywatne koncerny lub instytucje państwowe – chociażby ze względu na inne dostępne i łatwiejsze w użyciu środki, pozostaje strategią o niewielkim zasięgu, broniącą indywidulanego lub mniejszościowego prawa do wolności.
Pojedyncze, ale systematycznie dokonywane akcje zaciemniania mają na celu zachowanie godności jednostki, która świadomie sprzeciwia się programom gromadzenia danych lub walczy o utrzymanie niejawności najbardziej osobistych informacji, jak na przykład kodu DNA. Taki ślad pozostawiamy wielokrotnie w ciągu dnia – gubiąc włosy, wyrzucając niedopałki papierosów czy pozostawiając ślady śliny w gumie do żucia lub na krawędzi kubka z kawą. Wykorzystując te pozostałości z pomocą określonych metod laboratoryjnych można otrzymać kod genetyczny każdej przypadkowo spotkanej osoby. Jak łatwo tego dokonać udowodniła amerykańska artystka Heather Dawey-Hagborg, która w swojej działalności artystycznej nawiązuje do praktyk biohakerskich, bliskich cyberpunkowi, dążących do modyfikacji ciała w celu jego ulepszenia i osiągnięcia nad nim biologicznej kontroli. Używane przez biohakerów techniki i urządzenia są często domowej produkcji. Materiał wykorzystany w swojej instalacji Stranger Visions (2012) Dawey-Hagborg zbierała spacerując po Brooklynie lub jeżdżąc nowojorskim metrem. Następnie korzystając z pomocy specjalistów i ogólnodostępnego laboratorium odczytała kod DNA zawarty w zebranych odpadkach. Na ich podstawie otrzymała różne profile genetyczne, które posłużyły jej do stworzenia w programie graficznym prawdopodobnych wizerunków nieświadomych dawców. W procesie produkcji powstało po kilka możliwych portretów reprezentujących każdą przeanalizowaną próbkę DNA. Artystka następnie wybrała wizerunki twarzy, które odpowiadały jej ze względów estetycznych, wydrukowała je na drukarce 3D i stworzyła instalację podsumowującą pierwszy etap projektu.

Dawey-Hagborg zaskoczyło jak szybko, jej – amatorce w zakresie genetyki, udało się opanować i zrozumieć technikę odczytywania intymnych informacji na temat przypadkowych ludzi [3]. W odpowiedzi na własne wątpliwości stworzyła serię alternatywnych rozwiązań pozwalających bronić się przed niechcianą inwigilacją za pomocą technik zaciemniania osobistych informacji. W tym celu uruchomiła platformę internetową biononymous.me i zaprosiła do udziału w projekcie innych aktywistów, naukowców i badaczy, między innymi Zacha Blasa. Artystka publikuje tam artykuły dotyczące technik nadzoru i bio-zacieminiania, prezentuje też swoje kolejne projekty: dwa spraye z serii Invisible (2014), umożliwiające zaciemnianie osobistych informacji. Erase i Replace, odpowiednio, pozwolą użytkownikowi wyczyścić ślady DNA zostawione w trakcie codziennych czynności, by następnie je zastąpić – przy pomocy drugiego sprayu – mieszanką genów mających na celu pozostawienie obcego DNA, maskującego oryginalny materiał genetyczny. Na stronie biononymous.me można ponadto znaleźć przewodnik i poradnik opisujące jak zatrzeć nasze ślady, a także jak odczytać czyjś profil DNA. Zamieszczony także na tej stronie krótki film Spooting ukazuje, jak podszyć się pod obce DNA i w ten sposób ukraść czyjąś tożsamość [Dewey-Hagborg 2016]. Artystka prezentuje bez dodatkowego komentarza proste techniki zmylania: rzucie gumy ówcześnie przez kogoś użytej, wczepianie pukli cudzych włosów we własne czy doklejanie sobie czyiś obciętych paznokci. Wszystkie czynności prezentowane w formie filmu instruktażowego wykonywane są w sposób amatorski i prowizoryczny. Zderzenie tych dwóch konwencji daje zamierzony komiczny efekt.

Artystka otwiera projekt ważnym pytaniem o bezpieczeństwo naszych danych, proponowane ironiczne rozwiązania wydają się tylko próbą rozpoczęcia publicznej debaty na ten temat. Choć z góry skazane na klęskę, wskazują jednak na charakterystyczną cechę zaciemniania – jego lokalny zasięg, w którym Brunton i Nissenbaum niezmiennie upatrują wyjaśnienia wątpliwości etycznych związanych z zaproponowanym programem. Heather Dewey-Hagborg, która sugeruje taktykę zacierania śladów kojarzoną zazwyczaj z sytuacją przestępstwa, można zarzucić nieuczciwość zamiarów. Tego rodzaju oskarżenie staje się jednak nieadekwatne, jeśli dobrze przyjrzymy się językowi prac artystki, która nie ukrywa ostrego krytycyzmu wobec sytuacji zbierania i wykorzystywania informacji oraz wyraża chęć debaty na temat ochrony danych osobowych. Wszystkie jednak techniki przez nią zaproponowane charakteryzują się naiwnością, która nie pozostawia wątpliwości co do ich nikłej efektywności.
Znacznie bardziej radykalnym politycznie projektem, także apelującym o szeroką debatę publiczną, jest Obscurity Paola Cirio [2016]. Włoski artysta i haktywista w swojej dotychczasowej praktyce prowadził refleksję na temat amerykańskiego społeczeństwa – obserwując sposób działania systemów informatycznych i ich dynamikę, możliwą do opisania na podstawie analizy aktywności użytkowników internetu. Taki też kierunek obrał w swoim ostatnim projekcie funkcjonującym przede wszystkim online. Cirio skopiował kilka amerykańskich stron internetowych zawierających zdjęcia policyjne (tzw. mugshots) wraz z danymi osób aresztowanych [4]. Ponownie opublikowane informacje zostały zmodyfikowane, mając na celu sabotaż oryginalnych stron i informacji, których dostarczają. Zdjęcia policyjne nie znikają z internetu nawet w przypadku, gdy dana osoba została w toku śledztwa uniewinniona [5]. Fotografie twarzy widnieją na wykazach w sąsiedztwie skazanych prawnie sprawców poważnych przestępstw i stają się źródłem społecznej stygmatyzacji, do której przyczyniają się wyniki podawane przez popularne wyszukiwarki internetowe. Według Cirio, to zjawisko częściowo charakteryzuje współczesne społeczeństwo, dla którego informacja, a zwłaszcza ta dotycząca niechcianych wydarzeń z czyjegoś życiorysu, jest nie do przecenienia (i jak się okazuje, bardzo trudna do wymazania). Sprzeciwiając się zbyt szerokiemu dostępowi do danych osobowych, artysta stosuje technikę zaciemniania na kilku poziomach. Na skopiowanych stronach algorytm losuje przypadkowe dane aresztowanego, dopasowując je do wybranego zdjęcia. Każda fotografia, zostaje zmodyfikowana w programie graficznym: jej barwy są zmienione i pozbawione kontrastu. W konsekwencji użytkownik zamiast zdjęcia konkretnej osoby widzi nieostry zarys twarzy, na podstawie której możliwe jest jedynie wyodrębnienie pewnych cech antropomorficznych lub kulturowych, jak kolor skóry czy płeć. Następnie odwiedzający stronę może zadecydować czy fikcyjne dane mają pozostać w sieci, czy zostać usunięte.


W opisanym projekcie Cirio analizuje utopijny, czy wręcz dystopijny projekt związany z wykorzystaniem big data: potencjalna możliwość dostępu do informacji jest brutalnie tłumiona przez wizję nadmiaru informacji oraz ich nieprawdziwości. W innych swoich pracach artysta dokonywał wyłącznie dekontekstualizacji danych, w Obscurity decyduje się na gest silniejszy politycznie, zwracając jednocześnie uwagę na istotną cechę technik zaciemniania – zanieczyszczenie bazy danych. Gest rekontekstualizacji informacji nawiązuje w tym przypadku do poważnego problemu związanego z upublicznianiem danych osobowych i braku legalnych narzędzi do ochrony osób dotkniętych tym procederem. Etyczny aspekt zatruwania informacji nie może zostać pominięty w ocenie tej taktyki. Dane, czy nam się to podoba czy nie, są i będą gromadzone, podstawowy problem polega na ich wykorzystaniu. Cirio porównuje przepływ informacji do wody, którą zanieczyszczając u źródła można skazić cały jej zasób doprowadzając do klęski ekologicznej. Podążając za tym porównaniem, stwierdza iż należy opracować strategie eksploatacji tak wody, jak i informacji [Dragona 2016]. Postulat zachowania ostrożności przy zaciemnianiu danych pozostaje w zgodzie ze strategią naukową Burtona i Nissenbaum, którzy opisując wybrane metody zaciemniania przyjmują pozycję ich obrońców – szukają racjonalnego umotywowania tych praktyk oraz ich miejsca w stechnologizowanym świecie.
Zaciemnianie nie bez przyczyny nazwane jest również bronią słabych [Brunton, Nissenbaum 2015: 175]. To rodzaj oddolnej inicjatywy, która w obszarze sztuki współczesnej kieruje uwagę odbiorcy na aktualne problemy istniejące w społeczeństwie informacyjnym i w tzw. kulturze danych. Prace artystyczne skupiające się na różnych kwestiach dotyczących gromadzenia danych na temat codziennego zachowania człowieka, jak również jego ciała, czy tożsamości starają się wyostrzyć uwagę widza na wpływ technologii na jego życie. Złudne poczucie komfortu i dostępności do informacji powinno zostać rozproszone polityką uświadamiania. Proponowany projekt zaciemniania, zarówno ten analizowany w kontekście akademickim, jak i artystycznym, charakteryzuje się prostotą, dosadnością i pomysłowością [Brunton, Nissenbaum 2015: 184]. Ma chronić jednostkę przed kontrolą i analizą dokonaną przez osoby postronne, nie zamierza jednak zmieniać systemu. W kontekście projektów artystycznych kładzie nacisk na debatę publiczną i budowanie świadomości społecznej.
[1] James Bridle, Drone Shadow, 009, „Short Memory Loss” z października 2015; James Bridle, Drone Shadow 008, „Short Memory Loss” z czerwca 2015 i inne, http://shorttermmemoryloss.com/portfolio/, dostęp 1 lipca 2016 oraz blog Booktwo.org http://booktwo.org/ , dostęp 1 lipca 2016.
[3] Słowo „intymne” zaproponowała sama Dawey-Hagborg podczas swojej prezentacji w ramach konferencji ‘Becoming Fog’: practices of obfuscation for the datafying world, z 31 stycznia 2015, HKW Berlin, w ramach festiwalu Transmediale, https://www.youtube.com/watch?v=r8v3HO1ajgs, dostęp 13 lipca 2016.
[4] Sklonowane strony to: http://Jailbase.us; http://Usinq.us; http://Mug-Shots.us; http://JustMugshots.us; http://MugshotsOnline.us; http://BustedMugshots.us
[5] Fakt zapominania w internecie jest odrębnym tematem bardzo istotnym w dobie kultury danych. Interesującą pozycją poświęconą tej tematyce jest publikacja Victora Mayera-Schonbergera, Delete: The Virtue of Forgetting in the Digital Age (Princeton University Press, 2010), w której autor dowodzi jak zaburzona jest nasza percepcja czasu w internecie i dlaczego zapominanie danych jest tak kosztowne. Wiemy jak gromadzić big data, ale nie do końca umiemy te dane segregować i opracowywać.
bibliografia
Zach Blas, Escaping the Face: Biometric Facial Recognition and the Facial Weaponization Suite, „NMC|Media-N. Journal of the New Media Caucus”, 2013, http://median.newmediacaucus.org/caa-conference-edition-2013/escaping-the-face-biometric-facial-recognition-and-the-facial-weaponization-suite/, dostęp 2 lipca 2016.
Zach Blas, Contra-Internet Aesthetics, w: Omar Kholeif (red.) You Are Here. Art After the Internet, Conerhouse, SPACE, London 2014.
Zach Blas, Contra-Internet. 2014-present, http://www.zachblas.info/works/contra-internet/, dostęp 4 lipca 2016; oraz Zach Blas, Kontra-Internet, wykład z 15 grudnia 2014, Muzeum Sztuki Nowoczesnej w Warszawie w ramach wystawy „Ustawienia prywatności. Sztuka po Internecie”, http://artmuseum.pl/pl/doc/video-kontra-internet, dostęp 30 czerwca 2016.
Zach Blas, Facial Weaponization Communiqué: Fag Face, wideo z lipca 2013, https://vimeo.com/57882032, dostęp 30 czerwca 2016.
Jay David Bolter, Richard Grusin, Remediation. Understanding New Media¸ MIT Press, Cambridge 2000.
James Bridle, Big Data. No, Thanks, Booktwo.org z 2 listopada 2015, http://booktwo.org/notebook/big-data-no-thanks/, dostęp 4 lipca 2016.
James Bridle, Matafora chmury , prezentacja podczas seminarium Offline/Online w kwietniu 2016, HD Kepler, 3137 Enterprise Project, Ateny 2016.
James Bridle, Under the Shadow of the Drone, Booktwo.org z 11 października 2012, http://booktwo.org/notebook/drone-shadows/, dostęp 13 lipca 2016.
James Bridle, Satelite Shadow 001, „Short Memory Loss” z maja 2016, http://shorttermmemoryloss.com/portfolio/project/satellite-shadow-001/ dostęp 1 lipca 2016, 2016.
James Bridle, Satelite Shadows, Booktwo.org z 16 maja 2016, http://booktwo.org/notebook/satellite-shadows/, dostęp 13 lipca 2016.
James Bridle, The New Aesthetic and its Politics, w: Omar Kholeif (red.), You Are Here. Art After the Internet, Conerhouse, SPACE, London 2014 oraz James Bridle, The New Aesthetic and its Politics, Booktwo.org z 12 czerwca 2012, http://booktwo.org/notebook/new-aesthetic-politics/, dostęp 13 lipca 2016.
Finn Brunton i Helen Nissenbaum, Obfuscation. A User’s Guide for Privacy and Protest, MIT Press, Cambridge 2015.
Paulo Cirio, Obscurity, 2016, https://obscurity.online/ dostęp 25 czerwca 2016.
Heather Dewey-Hagborg, DIY Guides, Biononymous.me z lipca 2016, http://biononymous.me/diy-guides/, dostęp 3 lipca 2016.
Daphne Dragona, On Obscurity: An Interview with Paolo Cirio, „Furtherfiled” z 13 maja 2016, http://furtherfield.org/features/interviews/obscurity-interview-paolo-cirio, dostęp 23 czerwca 2016.
Lev Manovich, The Science of Culture? Social Computing, Digital Humanities, and Cultural Analytics, z 4 października 2016, http://manovich.net/content/04-projects/091-social-media-inequality/social-media-inequality.pdf; dostęp 15 lipca 2016.
Lev Manovich, The Algorithms of Our Lives, „The Chronicle of Higher Education” z 16 grudnia 2013, http://chronicle.com/article/The-Algorithms-of-Our-Lives-/143557/; dostęp 15 lipca 2016.
Lev Manovich, Social Media Inequality: Definition, Measurements, and Application, 2016, http://manovich.net/content/04-projects/086-cultural-analytics-social-computing/cultural_analytics_article_final.pdf; dostęp 13 lipca 2016.
***
anna tomczak – kulturoznawca i kurator. Pracowała w Zachęcie Narodowej Galerii Sztuki w Warszawie, po ukończeniu Ecole du Magasin, programu dla niezależnych kuratorów stworzyła kolektyw recto/verso. Zajmuje się wpływem nowych technologii na historię kultury wizualnej. Regularnie publikuje na łamach magazynu „Contemporary Lynx”. Adres mailowy: antomczak@gmail.com.
zdjęcie tytułowe: Paolo Cirio, Obscurity, 2016, zdjęcie wykorzystane na sklonowanej stronie „Mug-shots” , dzięki uprzejmości artysty.