Nie jest tajemnicą, że Twitter może być okrutne i bezlitosne platformy dla tych, które tweet niewłaściwe rzeczy – cokolwiek to może być. Niektórzy używają tego do korzyści, z wielu osobistości medialnych i polityków teraz delegowania dzielące komentarze jako środek do zwiększenia ich własnej obecności, i pozostać top of mind. Ale dla innych, tweet backlash może dostać przytłaczające szybko, dlatego Twitter pracował, aby zapewnić więcej sposobów dla użytkowników, aby kontrolować swoje doświadczenie w aplikacji i ograniczyć negatywne interakcje, gdzie to możliwe.
I może być blisko wydania kolejnego nowego elementu na tym froncie.
Twitter jest obecnie opracowania nowego „filtr Reply”. Jest to opcja, która pozwoli użytkownikom zmniejszyć ich ekspozycję na tweety, które zawierają „potencjalnie szkodliwe lub obraźliwe język”, jak zidentyfikowano przez Twitter systemów wykrywania.
Jak zauważono w opisie, filtr zatrzymałby tylko użytkownika przed zobaczeniem tych odpowiedzi, więc inni nadal mogliby zobaczyć wszystkie odpowiedzi na twoje tweety. Ale to może być inny sposób, aby uniknąć niechcianej uwagi w aplikacji, która może uczynić go bardziej przyjemne doświadczenie dla tych, którzy po prostu miał dość losowych kont pcha śmieci odpowiedzi ich sposób.
System prawdopodobnie wykorzystałby te same algorytmy wykrywania, co ostrzeżenia Twittera o obraźliwych odpowiedziach, które ponownie uruchomił w lutym ubiegłego roku, po odłożeniu projektu na półkę podczas wyborów w USA w 2020 roku.
Twitter twierdzi, że te podpowiedzi okazały się skuteczne, a użytkownicy zdecydowali się zmienić lub usunąć swoje odpowiedzi w 30% przypadków, w których wyświetlono te ostrzeżenia.
To sugeruje, że wielu użytkowników Twittera nie celowo dążyć do obrażania lub zdenerwowany innych z ich odpowiedzi, z nawet prosty pop-up jak to ma potencjalnie znaczący wpływ na dyskurs platformy i poprawy zaangażowania przez tweet.
Oczywiście, oznacza to również, że 70% ludzi nie zgadza się z Twittera automatycznej oceny ich komentarzy, i / lub nie są zaniepokojeni o obrażanie ludzi. Co brzmi prawdziwie – jak zauważono, Twitter może być dość nieubłagany platforma dla tych w centrum uwagi (aktor Tom Holland niedawno ogłosił, że bierze przerwę od aplikacji ze względu na to, że jest „bardzo szkodliwe dla mojego stanu psychicznego”). Ale nadal, 30% zmniejszenie potencjalnej toksyczności tweetów jest znaczące, a ta nowa opcja, która prawdopodobnie wykorzysta te same identyfikatory i algorytmy, może dodać do tego w inny sposób.
Jako takie, to jest, co najmniej, godny eksperyment z Twittera, zapewniając jeszcze więcej sposobów dla użytkowników do kontroli ich doświadczenia w aplikacji.
Nie ma słowa na oficjalnym wydaniu, jak dotąd, ale w oparciu o najnowsze przykłady opublikowane przez Wong, wygląda na to, że może być wkrótce.