Wetenschap
Zoeken op Facebook was donderdagavond niet veilig voor werk of thuis.
Het typen van "video van" in de zoekbalk van Facebook leverde een verontrustend resultaat op. De eerste autocomplete was "video van meisje dat d- zuigt."
Jona Bennett, een afgestudeerde student, onderzoeker en journalist, zegt dat hij door een vriend naar de zoekbalk is getipt. Hij deelde het op Twitter waar anderen dezelfde zoekresultaten kregen.
"Ga naar je Facebook-zoekbalk en typ:video van, " Bennett schreef op Twitter, "en kijk welke resultaten verschijnen."
Een paar uur later, Facebook-resultaten waren weer normaal. Maar toen probeerde Bennett de zoekopdracht in het Spaans:"videos de..." en het tweede resultaat was live seksvideo's.
Facebook zei dat het onderzoekt waarom de zoekvoorspellingen zijn verschenen.
"Het spijt ons zeer dat dit is gebeurd. Zodra we ons bewust werden van deze beledigende voorspellingen, hebben we ze verwijderd, ", zei het bedrijf in een verklaring aan USA TODAY.
"Facebook-zoekvoorspellingen zijn representatief voor waar mensen naar zoeken op Facebook en weerspiegelen niet noodzakelijkerwijs de werkelijke inhoud op het platform, ", aldus de verklaring. "We staan geen seksueel expliciete beelden toe, en we doen er alles aan om dergelijke inhoud van onze site te houden."
Vorige week werd het gigantische sociale netwerk bekritiseerd omdat het gebruikers vroeg of pedofielen minderjarige meisjes zouden mogen voorstellen voor seksueel expliciete foto's op het gigantische sociale netwerk.
Facebook wil gebruikers helpen te vinden wat ze zoeken te midden van de miljarden statusupdates, foto's en video's die ze elke dag posten.
Jarenlang gebruikten mensen vooral de zoekbalk om andere Facebook-gebruikers te vinden. In 2014, Facebook veranderde de zoekbalk in een hulpmiddel om te vinden waar iedereen het over heeft. Typ "Black Panther" of "Florida shooting" in de Facebook-zoekbalk en er verschijnt wat je vrienden en anderen op Facebook delen.
Nu wordt Facebook geconfronteerd met de uitdagingen waar Google mee te maken heeft gehad, de leider op zoek, die jarenlang bezig is geweest met het opruimen van racistische, seksistische en andere aanstootgevende resultaten voor automatisch aanvullen. Bijvoorbeeld, wanneer gebruikers de zin intypten, "zijn Joden, " Google stelde de vraag automatisch voor, "zijn Joden slecht?"
De resultaten voor automatisch aanvullen zijn meestal wat Google-algoritmen hebben geleerd dat mensen willen weten wanneer ze naar iets zoeken. Ze zijn gebaseerd, gedeeltelijk, op wat andere gebruikers hebben gezocht. Dus Google heeft het algoritme moeten aanpassen om autocomplete resultaten die gewelddadig zijn, uit te bannen. hatelijk, seksueel expliciet of gevaarlijk, in strijd met de bedrijfsregels.
©2018 USA Today
Gedistribueerd door Tribune Content Agency, LLC.
Wat gebeurt er als je droogijs in water stopt?
Baanbrekend onderzoek maakt kindervaccins veilig bij alle temperaturen
Wetenschappers creëren aanpasbare, stofachtige stroombron voor draagbare elektronica
Neutronenstudie van glaucoommedicijnen biedt aanwijzingen over enzymdoelen voor agressieve kankers
Onderzoekers ontwikkelen nieuwe klasse onderwaterkleefstoffen
Amerikaanse functionarissen worden geconfronteerd met toenemende druk over het gebruik van dicamba-herbiciden
Nieuwe studie verbetert de wetenschappelijke basis voor mariene klimaatverandering
Het testen van de haalbaarheid van de VN-doelstellingen voor duurzame ontwikkeling op het gebied van water en sanitatie
Heroverweeg de kosten-batenanalyse om de klimaatcrisis aan te pakken
Britse adviseurs gaan een klimaatneutrale deadline voor 2050 aanbevelen
Sensor van de nieuwe generatie combineert lasers en mechanica
Hoe Silver Plating te verwijderen
De locatie van Cilia en Flagella
Amerikaans, Russisch juichte toen ze het internationale ruimtestation bereiken
SpaceX lanceert 64 satellieten tegelijk
Duitse klimaatgroepen plannen juridische stappen tegen autoreuzen
Quantum computing-boost van dampstabilisatietechniek
Zware metalen in slangenlevers geven aanleiding tot bezorgdheid over het milieu
Wetenschap © https://nl.scienceaq.com