science >> Wetenschap >  >> Elektronica

Moeten mensen weten dat ze met een algoritme praten? Na een controversieel debuut, Google zegt nu ja

Krediet:CC0 Publiek Domein

Professor psychologie Michelle Drouin wilde weten hoe mensen zouden reageren als een chatbot een mens zou kunnen nabootsen.

Dus verdeelden zij en haar collega-onderzoekers 350 niet-gegradueerde studenten in drie groepen. Een groep kreeg te horen dat ze zouden communiceren met een bot. Een ander kreeg te horen dat het een echt persoon was. En de laatste werd pas geïnformeerd na de interactie die ze hadden gecommuniceerd met een algoritme.

De eerste twee groepen waren bijna even blij met de ervaring. Maar de laatste groep niet.

"Ze voelden zich er griezelig over, "zei Drouin van Purdue University Fort Wayne. "Ze dachten dat ze bedrogen werden."

Het is een reactie die bedrijven in Silicon Valley goed in de gaten willen houden terwijl ze de grenzen van kunstmatige intelligentie blijven verleggen om steeds realistischere virtuele assistenten te creëren.

Op dinsdag, Google heeft een assistent onthuld die kan bellen om afspraken te plannen terwijl hij spreekt met een bijna onberispelijke menselijke stem vol met 'ums' en 'ahs'. Op geen enkel moment tijdens de presentatie onthulde de software van Google dat het niet menselijk is, wat een discussie op gang bracht over ethiek en toestemming.

Op donderdag, Google keerde van koers door expliciet te zeggen dat de service, bekend als Google Duplex, zou een onthulling bevatten dat het geen persoon is.

"We begrijpen en waarderen de discussie rond Google Duplex, zoals we vanaf het begin hebben gezegd, transparantie in de technologie is belangrijk, " zei een woordvoerder van het bedrijf. "We ontwerpen deze functie met ingebouwde openbaarmaking, en we zullen ervoor zorgen dat het systeem op de juiste manier wordt geïdentificeerd."

De bezorgdheid dat mensen zouden worden bedrogen door de nieuwe functie van Google, onderstreept de urgentie voor de samenleving om te bepalen wat voor soort relatie het wil met zijn kunstmatige hulpmiddelen naarmate technologiebedrijven dichter bij het doorkruisen van de zogenaamde griezelige vallei komen. Dat is een term die wordt gebruikt om de kloof te beschrijven tussen een robot of software die net genoeg onvolkomenheden heeft om scepsis te wekken en een andere die niet te onderscheiden is van een mens.

Zullen we vragen om te weten wanneer we met een bot praten? Of accepteren we dat we onbewust met algoritmen gaan praten? Zullen we ze dezelfde vriendelijkheid en empathie schenken die we van elkaar verlangen? Of zien we ze alleen als hulpmiddelen, de waarden die het maatschappelijk middenveld met elkaar verbinden onwaardig? Dit zijn vragen ethici, ontwikkelaars en ontwerpers puzzelen. Hoe we reageren, kan verstrekkende gevolgen hebben voor hoe mensen elkaar uiteindelijk behandelen.

"Het zal ons veranderen, " zei Pamela Pavliscak, een professor aan het Pratt Institute en oprichter van Change Sciences, een adviesbureau gespecialiseerd in de emotionele band die mensen hebben met technologie. "We ontwerpen technologie en technologie, beurtelings, ontwerpt ons. Het zou behoorlijk naïef zijn om te denken dat we hetzelfde zullen blijven."

Met behulp van een paar opgenomen telefoongesprekken, Google Chief Executive Sundar Pichai demonstreerde deze week aan aanwezigen op de ontwikkelaarsconferentie van het bedrijf hoe de virtuele assistent kon bellen en een haarafspraak kon maken en een tafel in een restaurant kon reserveren.

"Mm-hm, "zegt de ersatz-assistente met een natuurlijke vrouwenstem als de salonmedewerker hem vraagt ​​even te wachten.

De assistente onderhandelt dan alternatieve tijden voor de afspraak, het gooien van een "um" voor de goede orde. Er zijn geen aanwijzingen dat de salonmedewerker enig idee heeft dat de stem aan de andere kant door de computer wordt gegenereerd.

Hetzelfde geldt voor een restaurantmedewerker die met een mannelijke virtuele assistent praat, die spreektaal gebruikt zoals "Oh, I gotcha" om begrip uit te drukken.

De bereidheid van Google om bekend te maken dat Duplex geen echt persoon is, zou andere bedrijven onder druk kunnen zetten om hetzelfde te doen. Maar Amerikanen - die al gewend zijn aan robocalls en geautomatiseerde oproepmenu's - zullen zich op een dag misschien afvragen of de stem aan de andere kant echt is.

Pichai zei dat de service een zegen zou kunnen zijn voor bedrijven door nog een barrière voor klanten weg te nemen. die misschien geen tijd hebben om zulke telefoontjes te plegen. Het past allemaal netjes in de nieuwe slogan van het bedrijf, "Laat Google het doen, " die consumenten aanspoort om de assistent van hun telefoons te gebruiken, slimme luidsprekers, auto's, Tv's en laptops.

opdat niemand het vergeet, hoe meer ondergeschikte taken mensen uitbesteden aan Google, hoe meer het bedrijf weet over hun gewoonten. Dat heeft twee doelen:Google kan consumenten betere zoekresultaten bieden, en het stelt adverteerders in staat om doelgroepen nauwkeuriger te targeten. En door een virtuele assistent echt te laten klinken, gebruikers laten hun hoede zakken, waardoor Google nog meer waardevolle gegevens krijgt.

Dat is op zich al een probleem voor voorstanders van privacy. Zal een authentiek klinkende assistent gebruikers in slaap wiegen om hun meest persoonlijke details te onthullen aan een bedrijf dat vorig jaar $ 95 miljard aan advertentie-inkomsten vergaarde? Wat als de assistent een dokter belt? Weet Google nu iemands gezondheidsgeschiedenis?

Het is iets dat Google moet aanpakken, gezien de toegenomen bezorgdheid over privacy van vandaag na het Cambridge Analytica-schandaal van Facebook. Maar ethici zeggen dat de grotere zorgen de onbedoelde gevolgen zijn van een wereld die steeds meer wordt overspoeld met bots en geautomatiseerde diensten in plaats van echte menselijke interactie.

"De reden dat dit zijwaarts kan gaan, is omdat menselijke communicatie en relaties gebaseerd zijn op wederkerigheid, " zei David Ryan Polgar, een technologie-ethicus. "Wat als ik tijd besteed aan het nadenken over iemand en schrijven naar hen, maar de andere persoon niet? Ze doen niet dezelfde moeite, maar ze willen nog steeds het voordeel van een verdiepte relatie."

Als resultaat, hij zei, communicatie wordt goedkoper.

"Het wordt een transactie, alleen over de woorden en niet de betekenis, " zei Polgar, die denkt dat Google en andere AI-ontwikkelaars een ethische verantwoordelijkheid hebben om te onthullen dat hun assistenten geen mensen zijn.

Dennis Mortensen, chief executive en oprichter van AI virtueel assistent-bedrijf x.ai, said he fears people will eventually determine it's a waste of time being kind to one another if an increasing amount of interaction is automated. But he has hope that won't come to pass.

"You can engineer good behavior, " said Mortensen. He cited Google's announcement this week that it will add a feature to its virtual assistant that encourages children to say "please" and "thank you." Amazon has a similar program for its assistant.

Mortensen, whose company solely helps users schedule meetings, said he's also seen polite responses to his virtual assistants, Amy and Andrew. Of the hundreds of thousands of meetings x.ai schedules each month, about 11 percent of users reply to the assistants just to express gratitude—even though Mortensen discloses that the service is AI.

Drouin, the psychology professor at Purdue University Fort Wayne, believes people are willing to accept algorithmic relationships if they are upfront. She says AI has unfairly gotten a bad rap from popular culture. She thinks the technology can eventually succeed in places humans can't, like delivering comfort to people suffering from alienation and loneliness.

"There's a lot of people who don't have rich and plentiful human relationships, " she said. "What options do they have? If we can advance AI we can fill a need for these people. The movement toward more human-like forms is allowing people to feel more connected."

© 2018 Los Angeles Times
Gedistribueerd door Tribune Content Agency, LLC.