ARTYKUŁ: AI jako worek bez dna dla środowiska kultury?
Anielek Niemyjski
Kacper Solecki
Warszawskie Obserwatorium Kultury bada przemiany praktyk kulturowych w dobie rewolucji cyfrowej. Za przykład może posłużyć niedawno opublikowany raport dotyczący czytelnictwa młodych Warszawiaków. Zainteresowanie procesami, w których uczestniczymy – w tym wypadku cyfryzacji – skłoniło nas do przyjrzenia się narracjom dotyczącym instytucji kultury w momencie przemian infrastrukturalnych, a przynajmniej jej określonego wycinka, czyli wzmożonego zainteresowania sztuczną inteligencją. Dlaczego w sezonie „boomu na sztuczną inteligencję”, nie korzystamy z wiedzy i kompetencji zdobytych podczas niedawnych rozmów dotyczących zastanych (i nowych) modeli pracy w kulturze – ekologii i nadprodukcji?
Kiedy pojawia się temat użycia „sztucznej inteligencji w kulturze”, przeważnie słyszymy o obiektach artystycznych, przy powstawaniu których wykorzystywane były narzędzia oparte o AI. Albo o wyzwaniach, które stoją przed reformowaniem prawa autorskiego w momencie, gdy dane kulturowe służą do trenowania sieci neuronowych. W tej perspektywie, instytucje kultury schodzą raczej na drugi, trzeci plan. Tymczasem osoby pracujące w instytucjach, na których koncentrujemy się w niniejszym tekście, stoją przed podobnymi wyzwaniami, co pracownicy innych sektorów, szczególnie w kontekście prawnych i etycznych warunków gromadzenia, opracowywania i wykorzystywania nowych rozwiązań. Rozmowa o warunkach pracy w nich może wzbogacać te, które skupiają się na artystach i produkcji artystycznej.
W zauważalnym boomie na szkolenia kadr kultury, pojawiają się coraz nowsze kursy obiecujące instytucjom i pracownikom „zdobycie prawdziwych kompetencji XXI wieku”, „zapoznanie się z prawdziwymi trendami i przyszłościowymi technologiami”. Zaciekawiły nas krążące narracje podkreślające innowacyjność, którymi przesycone są reklamy i opisy ofert szkoleniowych. Jak sądzimy, to dobra soczewka do analizowania sposobów, na jakie temat cyfryzacji pojawia się zarówno wewnątrz instytucji, jak i dyskusjach branżowych. Zadając pytanie o to, co najczęściej pojawia się w „dyskusjach o AI w kulturze”, staramy się rozpoznać wątki niepodejmowane – zobojętnienie samej debaty na niedawno toczące się rozmowy dotyczące obecnego modelu pracy i produktywności w polu kultury.
Narracja innowacyjna
Szkolenia umożliwiają zdobycie kompetencji i doświadczenia w pracy z narzędziami „o nieskończonych możliwościach”, czyli obecnie szeroko dostępnych kolejnych wersji programów takich jak ChatGPT albo Adobe Firefly. Najprawdopodobniej wszyscy mogliśmy się spotkać z podobnymi tropami – AI przedstawiany jako niematerialny (czyli często „darmowy”) asystent wyręczający nas w najbardziej uciążliwych zadaniach albo jako narzędzie, dzięki któremu pewne procesy staną się łatwiejsze. Rozwiązanie to ma odpowiadać na palące potrzeby danej instytucji, ułatwiać digitalizację i cyfrowe udostępnianie zbiorów dla grup o zróżnicowanych potrzebach. Może najciekawsze z perspektywy codzienności instytucji jest powszechne wykorzystanie ogólnodostępnych, częściowo darmowych modeli językowych takich jak ChatGPT od Open AI. W opisie szkoleń dowiemy się, że prosty w obsłudze chatbot, po wprowadzeniu konkretnego prompta (komendy), pomoże nam napisać wniosek grantowy, stworzy komunikację wydarzenia w mediach społecznościowych czy napisze scenariusz lekcji bibliotecznej. W narracji innowacyjnej narzędzia oparte o sztuczną inteligencję przypominają worek bez dna oferujący nieskończoną liczbę sposobów na uporanie się z uciążliwymi zadaniami, tak, abyśmy mogli poświęcić więcej czasu na inne zajęcia.
Dyskusje wokół tych narzędzi toczą się między obietnicą usprawnienia codziennej pracy a obawami, że ich wdrażanie może prowadzić do redukcji zatrudnienia. Jednak w rzeczywistości, jedyne wyzwania i ograniczenia, jakie w narracji innowacyjnej są uwzględniane, to prawne i etyczne warunki przetwarzania danych (na które na szczeblu unijnym odpowiedzieć ma AI ACT i dyrektywa ws. odpowiedzialności za sztuczną inteligencję). Wydaje się, że tak wytyczonym ramom debaty umykają dyskusje o alternatywach względem obecnego „nadproduktywnego” modelu organizacji pracy i zarządzania w instytucjach kultury, zintensyfikowanych pandemią COVID-19.
Nadprodukcja
W dzisiejszych rozmowach o sztucznej inteligencji często słyszymy, że jest ona nie wpływającym na nic narzędziem, które może pomóc nam dostosować się do obecnego rytmu pracy – nadprodukcji, charakteryzującego się „[przenikaniem] mechanizmów rynkowych do wszystkich obszarów naszego życia, pól twórczości, instytucji, w których pracujemy”[1]. Parafrazując Weronikę Parafianowicz, chodzi o ciągły ruch, na przykład nieprzerwaną realizację kolejnych projektów, często nie ocenianych ze względu na swoją merytoryczność oraz elastyczność pracowników ciągle poszerzających swoje kompetencję i otrzymujących obowiązki wykraczające poza nie. Jak mogliśmy obserwować, pandemia COVID 19 szczególnie odsłoniła słabości takiego modelu pracy. Stąd spore zainteresowanie planowaniem na nowo, jak możemy „pracować w kulturze”.
Brak dyskusji nad nadprodukcją w debacie o wykorzystywaniu rozwiązań opartych o AI zdaje się mieć wpływ na wyobrażenia i nadzieje pokładane w tych narzędziach – wykorzystując je do utrzymania obecnego modelu produktywności, przy zapewnieniu, że „AI wyręczy nas w uciążliwych obowiązkach”, a my będziemy mogli i mogły zająć się pracą, która nam odpowiada, na przykład kreatywną. To brzmi jak marzenie, prawda? Jednak warto zastanowić się, czy te wizje naprawdę są możliwe do spełnienia. Czy sztuczna inteligencja rzeczywiście uwolni nas od codziennych trudów, czy może w obliczu tych zmian zakresy obowiązków pracowników i pracowniczek instytucji będą stale poszerzane, ponieważ każda z tych osób będzie miała dostęp do “personalnego asystenta”? W tej dyskusji, rzadkie są również głosy podnoszące obecne warunki pracy z narzędziami opartymi o AI – ograniczone możliwości wykorzystywania wersji odpłatnych i zróżnicowane efekty pracy z darmowymi narzędziami (za które w rzeczywistości płacimy dostępem do danych). Nadprodukcji nie charakteryzuje gromadzenie umiejętności pracowników, ale ich rozpłynięcie. Musząc poszerzać swoją wiedzę o coraz to nowsze obszary, pracownicy i pracowniczki kultury nie mogą pogłębiać swojego obszaru ekspertyzy.
(Nie)skończone zasoby naturalne
When learning about the benefits of generative artificial intelligence in the workplace, its impact on the environment is often treated as a secondary concern. No wonder we are initially spellbound by AI’s benefits, such as process automation, photo and video creation and editing tools, and advanced data analysis. Also, we are only just finding our way around the ever-changing versions of ChatGPT and discovering its functions in our professional and personal lives.
Unfortunately, this ever-increasing interest in artificial intelligence’s possibilities is increasingly influenced by environmental consequences. In this case, intangibility seems to refer only to the realm of exciting technology, as research into its impact on the ecosystem exposes a dramatic problem.
In approximating data on generative AI’s environmental impact, we will mainly rely on research conducted on the OpenAI tool, due to its popularity and the availability of these studies and calculations. One of the current problems in estimating the actual impact of available types of generative AI on the environment is that they are owned by private companies, so the exact data and their specifications are not publicly available.
It is estimated that one ChatGPT query generates 4.32 grams of carbon dioxide.[2] Of course, before such a tool is ready to accept user commands and queries, it needs to be trained, i.e. fed with data. A 2021 study found that training a ChatGPT-3 model generated 502 tonnes of carbon dioxide,[3] equivalent to the average emissions of 112 internal combustion cars in a year.[4]
Unfortunately, carbon emissions and energy consumption in data centres are not the only costs of artificial intelligence to the environment and, above all, to humanity.
Another relatively recent impact of AI development is increased water consumption. In daily operation, AI servers in data centres generate significant heat and require cooling. It has been shown that approximately 5.4 million litres of water are used to train an AI model such as GPT-3, with an additional 500 ml of water used for every 10-50 queries.[5]
The next, higher, and more powerful chat model, GPT-4.0, was released in May 2024. This is crucial information as each successive version of the tool is more complex and has a successively greater environmental impact. We do not know what water consumption or atmospheric carbon emissions the new ChatGPT model is responsible for. Many researchers are calling for transparency about the environmental impact of new AI models and tools.
Without accurate data, we will not be able to control the impact of AI on the environment and thus anticipate the alarming use of natural resources essential for sustainable life on Earth.
Emocje
Zauważalny wzrost zainteresowania tematem sztucznej inteligencji w środowisku kultury, szczególnie w sektorze publicznym, wydaje się pozbawiony troski nad osobami, które są w nim zatrudnione. Przy ciągłym naporze technologicznej rewolucji zdarza nam się zapomnieć o osobach doświadczających wykluczenia technologicznego. Nie powinniśmy dopuszczać do sytuacji, w której osoby pracujące obarczane są dodatkowymi obowiązkami, których ciężar jest bagatelizowany możliwością wykonania ich za pomocą ChatGPT. Narzędzie czatu jest pomocne, ale uzyskanie pożądanego rezultatu często wymaga więcej, niż tylko napisanie prompta.
W oczach wielu pracowników, kultura to przestrzeń, w której priorytetem są emocje, relacje międzyludzkie oraz twórcza interakcja, co może powodować wątpliwości wobec technologii, która wydaje się bardziej bezosobowa i odległa od ludzkich wartości. Tego rodzaju zastrzeżenia, łączące ekscytację z obawami, często jednak występują symultanicznie, dlatego kluczowe jest, aby zarządzający instytucjami nie tylko rozumieli te obawy, ale również odpowiednio wspierali pracowniczki i pracowników w procesie adaptacji, co pozwoli na skuteczne i płynne wdrożenie AI, przynosząc korzyści zarówno dla zespołów, jak i całej instytucji.
Podsumowanie
Pośród wielu gorących tematów w kulturze, postanowiliśmy wyróżnić temat wdrażania sztucznej inteligencji w pracę publicznego sektora kultury. W powszechnej debacie na temat sztucznej inteligencji chcieliśmy uwzględnić tematy, które dotąd mogły być marginalizowane. Naszym zdaniem, w szczególności należy zwrócić uwagę na kwestie nadmiernej produkcji oraz brak transparentności wpływu AI na środowisko naturalne. Jednocześnie nie możemy zapominać o emocjach pracowników, dla których wdrażanie nowych technologii wiąże się z istotnymi wyzwaniami. Zapewnianie wsparcia oraz otwartej komunikacji na temat zmian w miejscu pracy powinno stać się priorytetem, aby proces wdrażania AI przyniósł korzyści nie tylko instytucjom, ale także osobom, które w nich pracują.
Zamiast technofobicznego stanowiska, zakładającego całkowity sceptycyzm względem nowych procesów, proponujemy praktyki rozpoznawania, na jakie potrzeby i problemy – szczególnie te, które często zamykamy w słowie automatyzacja, ale nie tylko – na poziomie instytucji, naszej codziennej pracy i pola kultury odpowiadać ma postępująca cyfryzacja. Jakie układy powiązań oczekiwań, rozpoznań, niepewności i trudności będziemy mogli zmapować, jeśli spróbujemy trochę rozszczelnić dyskusję o innowacji?
[1]Weronika Parafianowicz, , “Nadprodukcja” [Overproduction]. Dialog. Miesięcznik poświęcony dramaturgii współczesnej, 22.08.2024, https://www.dialog-pismo.pl/w-numerach/nadprodukcja.
[2] Vinnie Wong, „Gen AI’s Environmental Ledger: A Closer Look at the Carbon Footprint of ChatGPT,” Piktochart, 3 May 2024, https://piktochart.com/blog/carbon-footprint-of-chatgpt/
[3] David Patterson et al.,” Carbon Emissions and Large Neural Network Training” (arXiv, 23 April 2021), [http://arxiv.org/abs/2104.10350]
[4]Renée Cho, „AI’s Growing Carbon Footprint”, Columbia Climate School, 9 czerwca 2023, https://news.climate.columbia.edu/2023/06/09/ais-growing-carbon-footprint/.
[5] Pengfei Li i in., „Making AI Less «Thirsty»: Uncovering and Addressing the Secret Water Footprint of AI Models” (arXiv, 29 październik 2023), [http://arxiv.org/abs/2304.0327]
Wybrane źródła:
Cho, Renée. „AI’s growing carbon footprint”,. 9.06.2023. https://news.climate.columbia.edu/2023/06/09/ais-growing-carbon-footprint/,
Crawford, Kate. Atlas of AI. Power, politics, and the planetary costs of artificial intelligence. New Heaven: Yale University Press, 2021.
Li, Pengfei, Jianyi Yang, Mohammad A. Islam i Shaolei Ren. „Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models”. Arxiv.org, 04 2023.
Lis, Bartek, Jakub Walczyk. „Wszechpraca i nadprodukcja w kulturze. Okołopandemiczne refleksje na marginesie badań pracowników i pracownic poznańskiego pola kultury”. Zarządzanie w kulturze 22. nr 2(2021): 141-157.DOI:10.4467/20843976ZK.21.010.13764.
Parafianowicz, Weronika, „Nadprodukcja”. Dialog. Miesięcznik poświęcony dramaturgii współczesnej. Dostęp 22.08.2024. https://www.dialog-pismo.pl/w-numerach/nadprodukcja.
Patterson, David, Joseph Gonzalez, Quoc Lee, Chen Liang, Lluis-Miquel Munguia, Daniel Rothchild, David So, Maud Texier i Jeff Dean.”Carbon Emissions and Large Neural Network Training”. Arxiv.org, 04.2021. https://arxiv.org/ftp/arxiv/papers/2104/2104.10350.p.
Przegalińska, Aleksandra, Leon Ciechanowski. Wykorzystywanie algorytmów sztucznej inteligencji w instytucjach kultury. Ekspertyza przygotowana na zlecenie Ministerstwa Kultury i Dziedzictwa Narodowego, Warszawa: Ministerstwo Kultury i Dziedzictwa Narodowego, 2020.
Ślęzak, Ida. „Ekologia w instytucjach kultury”, grotowski.net. Dostęp 22.08.2024. https://grotowski.net/performer/performer-19/ekologia-w-instytucjach-kultury,
Wong, Vinnie. „Gen AI’s Environmental Ledger: A Closer Look at the Carbon Footprint of ChatGPT”. Grafiati.com, 3.05.2024. https://piktochart.com/blog/carbon-footprint-of-chatgpt/