Siden 2019 har datingappen Bumble anvendt machine learning til at beskytte sine brugere mod uopfordrede nøgenbilleder. “Privat Detector”, som AI-værktøjet kaldes, screener billeder fra matches for upassende indhold.
Det rapporterer Engadget.
Værktøjet var primært designet til at fange nøgenbilleder, men er også i stand til at fange billeder af topløse overkroppe samt billeder af våben, hvilket Bumble heller ikke tillader.
Når det finder et upassende billede, vil appen sløre det, hvorefter modtageren kan bestemme, om vedkommende vil se det, blokere det eller rapportere afsenderen.
I sit seneste blogindlæg annoncerede datingappen, at den vil gøre Private Detector tilgængeligt på GitHub som open-source. “Det er vores håb, at værktøjet vil blive adopteret af det bredere teknologiske samfund, mens vi arbejder sammen for at gøre internettet til et sikrere sted,” skrev virksomheden.