wtv.pl > Tylko u nas > Instagram banuje aktywistów zamiast hejterów. Kolejna edukatorka dostała bana
Maja Staśko
Maja Staśko 19.03.2022 08:58

Instagram banuje aktywistów zamiast hejterów. Kolejna edukatorka dostała bana

1 20210804 163542 0000
Instagram @majakstasko, @psychosekslogicznie, @kasia_coztymseksem, @martynakaczmarek, @kitty_tease

To samo stories, odpowiedź innego użytkownika: „Ja pier*olę jaka idiotka”.

Relacja, w której ogłaszam, że odzyskałam konto po bloku: „Ty się lecz na nogi, bo na głowę już za późno”.

Relacja, w której polecam konta aktywistek po tym, jak ich konta były banowane: „Ale bym ci n*szczał na tą mordę”.

Relacja, w której dziękuję za wsparcie po odzyskaniu konta: „Ch*j ci w ryj sz*ato je*ana”.

Zamieściłam na stories zdjęcie z papierkiem od lodów. „G*wno, co sobie w c*pę wsadzisz” – odpowiedź w reakcjach na relacje.

Inna osoba: „KU*WA WON

Won ku*wo

Wypie*dalaj”.

Jeszcze inna: „Ty ku*wo”.

„Elo dz3wko ogólnie zgłaszanie twoich postów się opłaciło życzę kolejnych banów”.

I tak od trzech lat, codziennie.

Blokada konta. Powód? Nieznany 

Te wiadomości pozostają zupełnie bez konsekwencji. Tymczasem jakiś czas temu to mi zablokowano konto na Instagramie i na Facebooku. Powód? Nieznany. Niedługo wcześniej opublikowałam post, w którym sprzeciwiałam się seksualizowaniu dziewczynek uprawiających sport. Sama byłam taką dziewczynką – od piątego roku życia występowałam w bardzo wykrojonych strojach i z mocnym makijażem. Podzieliłam się więc moim doświadczeniem.

Kilka minut później moje konto przestało istnieć – i na Instagramie, i na Facebooku. Bez żadnej informacji, z jakiego powodu. Możliwe, że hejterzy masowo zgłaszali moje treści, a algorytm wychwycił słowa „seksualizacja” i „dzieci” blisko siebie. Możliwe, że wystarczyło samo słowo „seksualizacja”, a nawet „seks”. Albo „przemoc seksualna”.

Algorytm - bóg XXI w. 

Możliwe, bo tak naprawdę nikt z nas nie wie, jak działają algorytmy Instagrama. Przypomina mi to sytuację, gdy pracowałam w magazynie Amazona. By dobrze wykonywać swoją pracę, codziennie musieliśmy wyrabiać normę. Problem w tym, że nikt nie wiedział, czym jest ta norma: jak jest obliczana, od czego zależy, kto ją wyznacza. Gdy związki zawodowe prosiły o tę informację, słyszały, że to tajemnica firmy. Pracowaliśmy więc codziennie po 10 godzin, by wypracować normę – ale że nikt nie wiedział, jak ta norma jest ustalana, to pracowaliśmy praktycznie po omacku. Norma była bardziej narzędziem do dyscyplinowania nas i wymuszania jeszcze cięższej pracy, abstrakcyjnym bytem, na który ci wyżej zawsze mogli się powołać, niż realną wskazówką, jak pracować.

Podobnie czuję się, gdy myślę o algorytmach. Wszyscy wiemy, że to od nich zależy nasze funkcjonowanie i komunikacja w social mediach. A jednocześnie nikt z nas dokładnie nie wie, co to są za algorytmy i jak działają. Możemy je testować metodą prób i błędów i w ten sposób sprawdzać, jak algorytm działa na naszym koncie i z naszymi treściami – ale nie mamy dostępu do jego zasad działania. Mimo iż wyznacza nam sposób komunikowania się i kształtuje sporą część naszego życia – nie mamy nad nim kontroli.

Słowo na “p”

Wiemy na pewno, że są słowa, za które algorytm z gruntu blokuje albo wyłącza monetyzację. Na YouTubie takim słowem jest „pandemia” czy „covid” – monetyzacja od razu zostanie usunięta, a na filmiku nie pojawi się żadna reklama. To oznacza, że ten twórca nic na nim nie zarobi. Na Instagramie każde stories czy post z tymi słowami otrzymuje osobne oznaczenie i informację, by sprawdzać fakty dotyczące pandemii. To ma służyć blokowaniu fake newsów. Ponieważ moderatorzy nie byliby w stanie sprawdzić każdego posta, relacji czy filmiku ze słowem „covid”, algorytm po prostu automatycznie je demonetyzuje czy oznacza. I dotyczy to tak samo naukowych materiałów na ten temat, jak i manipulacji i fake newsów. Różnica między nimi zostaje niemal zniesiona – i często trudno trafić na rzetelne materiały, skoro ich oznaczenia są takie same, a demonetyzacja działa tu dość podobnie.

Można by uznać: to walka z fake newsami. Niedoskonała, ale jakaś. Prawda jest jednak zupełnie inna: to walka z materiałami, które mogą się nie podobać reklamodawcom. Reklamodawcy nie chcą się pojawiać koło materiałów nie tylko z fake newsami, ale także z drastycznymi obrazami czy informacjami dotyczącymi wirusa. Gdyby chodziło o walkę z fake newsami, twórcy Instagrama stworzyliby algorytm do walki z fake newsami i weryfikacji materiałów, a nie z każdą wzmianką na dany temat.

Jak się wspierać po przemocy, gdy pisanie o przemocy jest banowane?

Podobnie z przemocą, zwłaszcza seksualną. Konta, które poruszają ten temat, są regularnie banowane lub shadowbanowane. Shadowban to taki ban-cień – twórca nie wie nawet, że go otrzymał, bo algorytm robi to „po cichu”. Natomiast po wpisaniu nazwy twórcy do wyszukiwarki – ona się nie pojawia. Przez to nowe osoby nie mogą znaleźć materiałów tego twórcy. To sprawia, że pisanie o przemocy – zwłaszcza seksualnej – w social mediach jest naprawdę trudne. Dzielenie się swoimi doświadczeniami, dodawanie sobie wsparcia, tłumaczenie mechanizmów psychologicznych i praw – wszystko to może zostać usunięte. Jawnie bądź z ukrycia, za pomocą shadowbana.

Skąd to się bierze? Po pierwsze: algorytm nieszczególnie odróżnia materiały, które promują przemoc, od takich, które przeciw temu występują. Niedawno Maffashion miała usunięte konto po tym, jak udostępniła antysemicką i homofobiczną wypowiedź modelki. Nie wspierała tej wypowiedzi, tylko nagłaśniała ją i krytykowała. Ale dla algorytmu to nie miało znaczenia, ponieważ algorytm nie rozumie kontekstu - zwłaszcza w języku polskim.

Po drugie: nawet materiały protestujące przeciwko przemocy nie są najlepiej widziane przez reklamodawców. Kto chciałby mieć swoją reklamę obok trudnej historii dziewczyny po gwałcie? Reklamodawcy sprzedają nam emocje – traumy czy cierpienie to nie są skojarzenia, które chcą wywołać i z którymi chcą być kojarzeni.

Cenzura pod dyktando reklamodawców

I tu pojawia się realna cenzura treści, które są ważne społecznie, ale które nie odpowiadają reklamodawcom – więc są ograniczane. Inną kategorią tej cenzury jest seks – a zwłaszcza seksualne ciało kobiet. Seksualne ciało kobiet sprzedaje produkty – samochody, chleb czy zegarki. Ale sprzedaje je, gdy to reklamodawcy zdecydują o tym, jak będzie to ciało wyglądało. W efekcie otrzymujemy idealne, sfotoszopowane ciała cispłciowych kobiet wpisujących się w kanon atrakcyjności: szczupłych, wysokich, często z dużymi piersiami i pośladkami oraz wcięciem w talii. A media społecznościowe pozwalają na przedstawianie bardzo różnorodnych ciał i różnego podejścia do seksualności: ciał grubych, z niepełnosprawnościami, niebinarnych, transpłciowych, chorych, z różnymi upodobaniami i kinkami. I to już reklamodawcom nie pasuje.

I znów pojawia się cenzura, która uderza zarówno w ciała spoza kanonu, ale i w edukatorki seksualne, które w mediach społecznościowych dzielą się swoją wiedzą. Obecność na Instagramie i obserwowanie kont jak @kasiacoztymseksem czy @psychoedu nauczyło mnie więcej niż wszystkie lata edukacji szkolnej. W Polsce musimy zaakceptować fakt, że wiele osób otrzymuje wiedzę w zakresie seksualności czy zdrowia psychicznego z mediów społecznościowych. A cenzurowanie czy banowanie tej wiedzy przez wymogi reklamodawców sprawia tylko, że osoby będą pozbawione rzetelnej i dobrej wiedzy z zakresu seksu czy psychiki.

Kontrola kontrowersyjnych treści

Tak było od dawna – magiczny algorytm, niczym bóg, wyznaczał, co jest dobre, a co złe, co widoczne, a co nie. Aktywistki i edukatorki zawsze były mniej dobre niż konta celebrytek pełne reklam.

Ale 20 lipca Instagram ogłosił wprowadzenie nowej funkcji: „Kontrolę kontrowersyjnych treści”. Na profilu Instagrama możemy o tym przeczytać:

„Z biegiem lat to stawało się coraz bardziej jasne – ludzie mają bardzo różne poglądy na temat oferowanego przez nas doświadczenia i tego, co jest dla nich odpowiednie. Uważamy, że ludzie powinni być w stanie ukształtować Instagram w taki sposób, w jaki tylko chcą. Zaczęliśmy więc wprowadzać narzędzia takie jak możliwość wyłączania komentarzy lub ograniczania interakcji. Dzisiaj robimy kolejny krok i uruchamiamy „Kontrolę kontrowersyjnych treści”, która pozwala decydować, ile kontrowersyjnych treści ma pojawiać się w „Eksploruj”.

Zawsze mieliśmy zasady dotyczące tego, jakie treści mogą znajdować się na Instagramie, które nazywamy „Wytycznymi dla społeczności”. Celem tych wytycznych jest zapewnienie ludziom bezpieczeństwa. Nie zezwalamy na szerzenie nienawiści, zastraszanie i inne treści, które mogą stanowić zagrożenie dla ludzi. Mamy również zasady dotyczące rodzaju treści, które pokazujemy w miejscach takich jak „Eksploruj”; nazywamy je naszymi wytycznymi dotyczącymi rekomendacji. Te wytyczne zostały opracowane, aby zapewnić, że nie pokażemy Ci kontrowersyjnych treści z kont, których nie obserwujesz. Możesz myśleć o kontrowersyjnych treściach jako postach, które niekoniecznie łamią nasze zasady, ale mogą być denerwujące dla niektórych osób – na przykład posty, które mogą zawierać podtekst seksualny lub zawierać przemoc.

Ta nowa funkcja zapewnia kontrolę nad kontrowersyjnymi treściami. Możesz zdecydować o pozostawieniu rzeczy takimi, jakie są, zakładając, że jesteś zadowolony z obecnego doświadczenia, lub możesz dostosować „Kontrolę kontrowersyjnych treści”, aby zobaczyć mniej lub więcej pewnych rodzajów kontrowersyjnych treści. Zdajemy sobie sprawę, że każdy ma inne preferencje co do tego, co chce zobaczyć w „Eksploruj”, a ta kontrola da ludziom większy wybór tego, co widzą”. [tłumaczenie z angielskiego: Maja Staśko]

Po wprowadzeniu tej opcji mnóstwo kont zaczęło mówić, że to rodzaj cenzury: treści z zakresu edukacji seksualnej, edukacji antyprzemocowej czy konta aktywistyczne mogą się okazać „kontrowersyjne”. Tymczasem groźby śmierci czy gwałtu, które te konta otrzymują w prywatnych wiadomościach – według algorytmów już nie są „kontrowersyjne”.

“Ogranicz bardziej”

Aby wyświetlić panel „Kontroli kontrowersyjnych treści”, wystarczy przejść do swojego profilu, kliknąć trzy poziome kreski w prawym górnym rogu, wejść w „Ustawienia”, a następnie: „Konto”. Tam znajduje się opcja „Kontrola kontrowersyjnych treści”. Tam można zdecydować, czy zachować ustawienie w stanie domyślnym („Limit”), czy też wyświetlać więcej („Zezwalam”) lub mniej niektórych rodzajów poufnych treści („Ogranicz bardziej”). Kliknięcie „Zezwalam” pozwoli na dostęp do treści edukacyjnych (ale także powiązanych z seksem, nagością i przemocą bez waloru edukacyjnego).

Opcja „Zezwól” nie jest dostępna dla osób poniżej 18. roku życia. A zatem dla nich dostęp do edukacyjnych kont może być bardzo utrudniony.

Oczywiście, ta nowa opcja nie jest rewolucją w podejściu do treści: Instagram sam zaznacza w odpowiedziach na protesty, że już wcześnie takie treści były ograniczane, a w tej chwili użytkownik może po prostu sam zadecydować, czy chce je widzieć, czy nie. Problem w tym, że domyślne ustawienie sprawia, że ich nie zobaczy. A do jakiego procenta użytkowników Instagrama trafi informacja o możliwości zmiany tej opcji? 1%? 5%? W porywach: 10%?

Reszta realnie zostanie pozbawiona wyboru – choć w praktyce będzie go miała. Reszta zostanie więc pozbawiona dostępu do kont o edukacji seksualnej, ze wsparciem po doświadczeniu przemocy, z ciałopozytywnym przekazem czy o zaburzeniach psychicznych. Reszta nie będzie miała kontaktu z osobami, które mogą pomóc po gwałcie, w momencie kryzysu psychicznego czy gdy mają myśli samobójcze. Kont, które – bez przesady – mogą uratować im życie.

Faceci pokazują kobiety w przedmiotowy sposób - i ich algorytmy nie łapią

Jak realnie może działać opcja ograniczania „kontrowersyjnych” treści? Nie wiemy. Ale niedługo po jej wprowadzeniu konto Sary Tylki @psychosekslogicznie z edukacją seksualną i dotyczącą tożsamości płciowych zostało zablokowane. Po nim bloka dostałam ja. Na swoim koncie wspieram osoby po przemocy seksualnej i w trudnej sytuacji: rozmawiam, przekazuję kontakty do organizacji czy prawników, szukam psychoterapeutów, kupuję jedzenia albo dokładam się do czynszu, nagłaśniam sprawy, by wywrzeć nacisk i sprawić, by osoby dostały zaległe wynagrodzenia czy mieszkania socjalne. Oprócz tego edukuję w zakresie wspierania osób po przemocy, mechanizmów po przemocy, a także oddaję swoją platformę wykluczanym i uciszanym grupom.

To wszystko okazało się dla algorytmów Instagrama na tyle niebezpieczne, że musiało zostać usunięte. Po kilku godzinach zarówno konto Sary, jak i moje udało się odzyskać. Wcześniej zniknęło konto Kasi Koczułap @kasiacoztymseksem. Martyna Kaczmarek miała przez długi czas shadowbana.

Z kolei w ten poniedziałek zbanowane zostało konto Patrycji, na Instagramie: kitty_tease. To osoba, która na swoim profilu porusza kwestie związane z przemocą seksualną, dyskryminacją i cenzurowaniem kobiecego ciała. Profil prowadzi od czterech lat. Powód bana? “Nagabywanie seksualne”.

- Frustrujące, że kobiecie dosłownie wszystko mogą podciągnąć pod nagabywanie seksualne - mówi Patrycja. - A to tylko przez to, że ciągle nas się seksualizuje. Faceci robią dokładnie to samo albo serio nagabują lub pokazują kobiety w przedmiotowy sposób - i ich algorytmy nie łapią. A Pornhub czy Brazzers są zweryfikowanymi profilami i spokojnie istnieją.

Która edukatorka lub aktywistka będzie następna?

“Wasz system nie widzi przemocy”

Popularne konto @soyouwanttotalkabout, które ma prawie 3 mln obserwujących, szeroko opisało sprawę „cenzury Instagrama”:

„Jako duże konto na tej platformie chcę wykorzystać tę przestrzeń, by wezwać Instagrama, aby:

1)      Rozpoznać szkody, którą wasz algorytm wyrządza, gdy ucisza twórców – szczególnie „twórców koloru” (twórców, których dosięga rasizm). Skorygować to.

2)      Zamiast po cichu wprowadzać nowe narzędzia ograniczające treści, które ludzie widzą w swoich kontach, spożytkować część waszej technologii, by lepiej reagować na przemocowych użytkowników tej platformy. Zbyt często zgłaszamy wiadomości, komentarze i posty jako naruszające „Wytyczne dla społeczności” (jedne, jeśli nie więcej), a wasz system nie widzi przemocy. Jeśli wysyłanie bezpośrednich gróźb śmierci, wezwań do przemocy albo krzykliwy rasizm są dozwolone w tej aplikacji, podczas gdy treści edukacyjne są cenzurowane, to wydaje się, że jest tu znacznie poważniejszy problem, który odbywa się za kulisami”.

Kocham tworzyć treści dla tego portalu i będę to robić tak długo, jak tylko mogę.

Ale nie mogę siedzieć cicho i patrzeć, jak ja i inni twórcy są cenzurowani i pozbawia się ich możliwości dotarcia do ich własnej społeczności” [tłumaczenie z angielskiego: Maja Staśko].

Zamiast oznaczania kontrowersji - oznaczanie edukacji?

Przyłączam się do tego apelu. Rozwiązań na rzecz bezpieczniejszej przestrzeni może też być znacznie więcej. A może tak zamiast oznaczania „kontrowersyjnych” treści – i stawiania na równi edukację antyprzemocową z obrazami przemocy – oznaczyć by konta edukatorek? Takie konta, które szerzą rzetelną, sprawdzoną wiedzę, prowadzone przez doświadczone edukatorki i aktywistki, które mają do tego kompetencje? Te konta mogłyby być specjalnie oznaczone i otrzymać więcej miejsca i dostęp do większej liczby użytkowników – ze względu na to, że można tam znaleźć wartościową, darmową wiedzę, bez fake newsów i zasypania całego story reklamami. Dzięki temu osoby, które potrzebują wiedzy i wsparcia, mogłyby je otrzymać. Za darmo, w sposób dostępny i bez wykluczania.

Oczywiście, nie zawsze jesteśmy gotowi na przyjęcie danych treści w każdym momencie życia. Dla osoby po przemocy seksualnej ostry materiał krytykujący przemoc seksualną może być triggerujący, wywołujący trudne wspomnienia. Dlatego może dobrym rozwiązaniem byłby system TW – trigger warningów, czyli ostrzeżeń przed konkretną treścią. To ostrzeżenie mogłoby się pojawiać przy treściach związanych z seksem, przemocą seksualną, zaburzeniami psychicznymi, zaburzeniami odżywiania itd. W osobnym miejscu można by dowolnie ustawiać, które TW w danym momencie są dla nas trudne i nie chcemy ich widzieć.

Bo sama kategoria „kontrowersyjnych” treści jest tak szeroka i rozmyta, że właściwie nie wiadomo, co w nią się wpisuje.

Przyzwolenie na przemoc

Wiadomo za to, co się nie wpisuje: hejty wysyłane masowo do osób publicznych.

Jako edukatorki i aktywistki spotykamy się z olbrzymią ilością hejtu. I to tylko przez to, co robimy – walkę ze stereotypami, sprzeciw wobec powszechnej dyskryminacji i przemocy czy pokazywanie ciał spoza kanonu. To wywołuje często gniew i sprzeciw – niektórzy wolą nas atakować, zamiast wysłuchać. Bo po wysłuchaniu i przemyśleniu coś musiałoby się zmienić. A wiele osób, zwłaszcza tych u władzy, zmian nie chce. Jesteśmy więc obrażane, poniżane, dostajemy groźby śmierci i gwałtu, hejterzy nas stalkują i masowo zgłaszają nasze konta i posty. To jest przemoc, na którą na platformie istnieje przyzwolenie, skoro odbywa się codziennie i bezkarnie. Dla wielu z nas to jest obciążenie psychiczne, które jest nie do zniesienia – przez co kolejne edukatorki znikają, wycofują się, są uciszane. I dokładnie o to chodzi w tej przemocy.

Chciałabym, by Instagram – zamiast oznaczać nasze treści jako „kontrowersyjne” – zajął się przemocą, której codziennie doświadczamy na platformie z racji podejmowania trudnych tematów lub wspierania wykluczanych osób. By treści wywołujące kompleksy, promujące nierealne wizerunki ciał i życia – te „niekontrowersyjne” – miały choćby przeciwwagę w treściach wspierających, akceptujących i sprzeciwiających się dyskryminacji.

A co my możemy z tym zrobić – użytkowniczki i użytkownicy? Możemy wspierać edukatorki i tworzyć dla nich – i dla siebie – bezpieczną, wolną od przemocy platformę. Możemy codziennie udostępniać jedno konto takiej edukatorki w ramach akcji #dobraedukatorka lub podobnej. Większe konta mogą dołączyć do akcji i dzięki swoim zasięgom sprawiać, że ludzie otrzymają dostęp do darmowej edukacji, powszechnego wsparcia i przestrzeni, która będzie ich włączać, a nie wykluczać, a także umacniać, a nie hamować.