Szkolenia z demokracji, a nie szkolenia z technologii
Wciągnięto nas w technologiczną gorączkę złota, a w tej gorączce najwięcej zarabiają firmy produkujące kilofy.
Jeśli się spojrzy na tak zwaną sztuczną inteligencję w dłuższym procesie kulturowym, to nabiera się nieco lepszej perspektywy. W skrócie chodzi o to, co zawsze: dominację gospodarczą, szybkość reakcji społeczeństwa obywatelskiego i problem nierówności dostępu do zasobów i informacji.
Od dłuższego czasu przechodzimy proces digitalizacji kultury: najpierw zmienialiśmy nośniki z analogowych na cyfrowe i korzystaliśmy w tym celu z komputerów i podobnych narzędzi (kamery i aparaty cyfrowe i takież odtwarzacze).
Następnie szukaliśmy sposobu na coraz efektywniejsze przetwarzanie zasobów kulturowych, jakie posiadaliśmy poprzez różnego rodzaju programy komputerowe, rozwój interfejsów itd.
Kolejnym wyzwaniem stało się lepsze połączenie danych ze sobą, a na tę potrzebę odpowiedziała sieć internet, która powoli zaczęła zabudowywać na swoją infrastrukturę kolejną warstwę programów. Wyszukiwarki pozwoliły znaleźć rozproszone dane, a biblioteki cyfrowe (jakimi są zarówno Netflix jak i Polona) pozwoliły na szerszy dostęp do digitalizowanej kultury. Media społecznościowe dołożyły warstwę sprawniejszych interakcji międzyludzkich, a sklepy odbudowały wymianę towarów.
Gdzieś po drodze pojawili się cyfrowi magnaci, którzy dostarczali urządzenia i platformy do tej wyraźnie efektywnej wymiany danych, a społeczeństwo obywatelskie, pomimo wielu prób (np. wolne licencje) przegrało walkę z biznesem o kształt sieci.
AI to po prostu narzędzie przetwarzania i personalizowania danych, których było w pewnej chwili zbyt dużo nawet dla wyszukiwania. Gdy wygłaszałem prezentację "Czy sztuczna inteligencja to nowe Google?" na NieKongresie Kultury, samo Google jeszcze nadganiało tworzenie interfejsów korzystających z AI (firmy technologiczne z algorytmów uczących się korzystały już od dawna). Teraz już ich wyszukiwarka generuje wyniki i powoduje, że ludzie mogą przestać wchodzić na strony internetowe.
Problemem nie jest sama technologia, która po prostu była logicznym następnym krokiem w digitalizacji. Problemem jest bezkarność dużych korporacji, słabość społeczeństwa obywatelskiego, bałagan prawny, który jest wygodny dla ludzi lubiących władzę, słabość uniwersytetów i popularyzacji wiedzy.
Większość zagadnień dotyczących AI jest łatwe w rozwiązaniu, jeśli weźmie się pod uwagę wszystko, co wypracowała dotychczas humanistyka cyfrowa i wiele innych dziedzin, dla których humanistyka cyfrowa jest po prostu kompilatorem. Problemem nie jest brak informacji, a ich rozproszenie i słabość podmiotów, które ją posiadają.
Korporacje i cyfrowi magnaci wiedzą jak wielkie pieniądze i ile władzy leży na stole, jest im na rękę słabość demokracji i to, że dyskusja o demokracji odbywa się na platformach, do których oligarchowie posiadają klucze. Gdy jakieś państwo chce popełnić zbrodnię ma już narzędzia do wyłączania w swoim regionie dostępu do sieci (mieliśmy już takie przypadki) i są narzędzia do olbrzymiej koncentracji władzy i zasobów.
Chcę powiedzieć, że musimy oddzielić użyteczność technologii od zawłaszczania technologii i zasobów potrzebnych, by ją tworzyć.
To, czego obawiam się najbardziej to idiotycznego dyskursu "złe AI" / "dobre AI", bo od niego żaden technologiczny magnat nie będzie biedniejszy, a stanie się tylko jeszcze bogatszy w tym chaosie.
Ustawmy dyskusję tak, jak powinna wyglądać: kto sprawuje nadzór nad rozwojem technologicznym i w jaki sposób zdobył władzę i zasoby. Bez takiego, szerokiego spojrzenia jesteśmy po prostu użytkownikami cudzych systemów - włącza się nam różne funkcje i wyłącza zupełnie dowolnie.
I tego powinno się teraz uczyć w dojrzałej demokracji.