Direktør for X kaller blokkeringen "et føre-var-prinsipp".
Forrige uke florerte AI-skapte nakenbilder av Taylor Swift på flere nettplattformer som 4chan, Telegram og X. Bildene – som ble laget av kunstig intelligens – fikk raskt søk etter Taylor Swift til å eksplodere, og flere kontoer ble i ettertid fjernet. Dette er skrevet av teknologimediet 404media.
Nå har X blokkert alle søk etter Taylor Swift. I stedet får du meldingen "Noe gikk galt, men ikke bekymre deg - det er ikke din feil.". Direktør for X Joe Benarroch sier, ifølge Reuters, at «dette er et midlertidig tiltak som gjøres på en føre-var-basis».
Ifølge opplysninger fra 404media stammer bildene fra plattformer som 4chan og det krypterte sosiale mediet Telegram, hvor de Ai-skapte bildene blant annet florerte i en gruppe som er «dedikert til å dele støtende bilder av kvinner». Bildene skal visstnok komme fra 4chan, hvor anonyme brukere delte tips og triks om hvordan man kan manipulere bilder med blant annet Microsofts Ai-generator Designer, som normalt ikke kan lage bilder av denne arten. Et eksempel er at Designer er programmert til ikke å kunne generere et bilde av "Taylor Swift", men denne blokkeringen kan omgås ved å endre ledeteksten til "Taylor 'sanger' Swift". Det skriver teknologimediene.
På X-kontoen Safety, som kontrolleres av selskapet selv, ble det kunngjort 26. januar at det ikke tolererer støtende innhold på plattformen:
"Å legge ut bilder av nakenhet uten samtykke (NCN) er strengt forbudt på X, og vi har en nulltoleranse mot slikt innhold. Teamene våre fjerner aktivt alle identifiserte bilder og iverksetter passende tiltak mot kontoene som er ansvarlige for å legge dem ut. overvåker situasjonen for å sikre at ytterligere brudd blir løst umiddelbart og innholdet fjernet. Vi er opptatt av å opprettholde et trygt og respektfullt miljø for alle brukere."
Det er foreløpig ikke kjent når X igjen vil tillate søk etter Taylor Swift.