Huis Online ziekenhuis Zelfmoord en Facebook AI

Zelfmoord en Facebook AI

Inhoudsopgave:

Anonim

Wanneer een persoon sterft door zelfmoord, vragen degenen in hun leven zich vaak af wat ze hadden kunnen doen om het te voorkomen.

Gebruikers van sociale media kunnen zelfs spijt hebben van het zien van iets verontrustends gepost door de persoon, maar er niets aan doen.

Advertentieadvertentie

In een poging om te helpen, heeft Facebook aangekondigd dat het zijn gebruik van kunstmatige intelligentie (AI) -instrumenten uitbreidt om te identificeren wanneer iemand op de website van de sociale media uiting geeft aan gedachten over zelfmoord of zelfverwonding.

Vóór deze maand gebruikte Facebook de tools alleen voor sommige gebruikers in de Verenigde Staten. Nu is het beschikbaar voor de meeste van de 2 miljard gebruikers van de site, behalve die in de Europese Unie, die strengere privacy- en internetwetgeving hanteert.

Mark Zuckerberg, de chief executive officer van Facebook, zegt dat dit gebruik van AI een positieve ontwikkeling is.

Advertentie

Onlangs plaatste hij op zijn Facebook-tijdlijn: "Alleen al in de laatste maand hebben deze AI-tools ons geholpen om snel contact te maken met de eerstehulpverleners, meer dan 100 keer. “

Hoe precies doen de tools dat?

AdvertentieAdvertisement

Facebook onthult geen diepgaande details, maar het lijkt erop dat de tool werkt door te bladeren door berichten of video's en ze te markeren wanneer deze op woorden, video's en afbeeldingen reageert die kunnen aangeven dat een persoon is lopen risico op zelfmoord.

Facebook gebruikt al AI in een vergelijkbare kwestie om berichten te scannen en verwijderen die kinderpornografie en andere aanstootgevende inhoud bevatten.

Een Facebook-vertegenwoordiger vertelde Healthline dat de zelfmoordpreventiehulpmiddelen de inhoud sneller kunnen detecteren. De AI helpt ook bij het prioriteren van de rapporten en geeft aan welke cases serioius zijn.

Vervolgens beoordelen getrainde leden van het community operations-team van Facebook de inhoud en bepalen ze welk type hulp de gebruiker moet bieden.

Deze leden werken de hele dag rond de wereld en bekijken zowel rapporten van AI-tools als van betrokken Facebook-gebruikers.

AdvertentieAdvertentie

Eén manier waarop het AI-hulpprogramma zelfmoordneigingen detecteert, is gebruikers te vragen stellen met: "Gaat het? " "Kan ik helpen? "En" Heeft u hulp nodig? "

Het community operations-team van Facebook is belast met het beoordelen van inhoud die als gewelddadig of verontrustend wordt beschouwd.

In mei kondigde Facebook aan dat het nog eens 3.000 extra werknemers zou toevoegen aan het operationele team, dat op dat moment 4, 500 werknemers had.

Advertentie

Volgens de woordvoerder van Facebook helpt de technologie om content en video's die mensen op Facebook plaatsen vaak sneller te vinden dan een vriend of familieleden het materiaal kunnen melden.

Wanneer deze worden gedetecteerd, wordt de Facebook-gebruiker via Messenger in contact gebracht met Live Chat-ondersteuning van crisisbeheersingsorganisaties en kan hij in realtime chatten.

AdvertentieAdvertisement

Pleitbezorgers voor zelfdodingvoorlichting aan boord

Bij het creëren van AI voor zelfmoordpreventie werkt Facebook samen met organisaties voor geestelijke gezondheidszorg, waaronder Save. org, National Suicide Prevention Lifeline "1-800-273-TALK (8255)" en Forefront Suicide Prevention.

Daniel J. Reidenberg, PsyD, uitvoerend directeur van Save. org, zegt dat hij blij is dat Facebook stappen zet om zelfmoordpreventie te bevorderen op manieren die nog niet eerder zijn gedaan.

"Als we de afgelopen 50 of 60 jaar kijken - of u het nu hebt over vooruitgang in medicatie of behandeling voor zelfmoord en geestelijke gezondheid - hebben we geen reducties gezien of zelfmoordverlies gezien vanwege die dingen, dus het idee dat technologie misschien kan helpen, is de beste kans die we nu hebben om levens te redden, "vertelde Reidenberg aan Healthline.

Advertentie

Hoewel hij merkt dat de AI-tools mogelijk niet volledig zijn ontworpen en mogelijk valse meldingen bevatten van mensen die een verhoogd risico lopen, zegt hij dat het een geavanceerde interventie is voor zelfmoordpreventie die enige tijd kan kosten om het te begrijpen effectiviteit.

"Voordat AI meeging, waren er valse positieven van mensen die dingen aan Facebook meldden die dachten dat een vriend suïcidaal zou kunnen zijn. AI versnelt alleen het proces om een ​​aantal van die valse positieven te elimineren en echt degenen op te pakken die echt risico lopen, "zei Reidenberg.

Advertentieadvertentie

Hij voegt eraan toe dat mensen op sociale media tekenen van suïcidale neigingen vertonen en dat dit noch goed noch slecht is.

"Sociale media zijn precies waar mensen vandaag hun leven leiden. Jaren geleden leefden ze het in het park of in de nis of schreven ze aantekeningen aan elkaar, misschien gedeeld via de telefoon. Naarmate meer en meer mensen hun leven op sociale media beleven, delen ze zowel de gelukkige momenten als de uitdagingen waarmee ze worden geconfronteerd, "zei hij.

De verandering, voegt hij eraan toe, stelt mensen in staat om honderden en honderden mensen tegelijkertijd te bereiken.

Reidenberg zegt dat als je iemand op sociale media ziet die depressief is of het risico loopt op zelfbeschadiging, contact met hen opneemt met een bericht, sms of telefoontje als je goede vrienden bent. Facebook biedt zelfs vooraf ingevulde teksten om het gemakkelijker te maken om een ​​gesprek te starten.

Als u zich niet op uw gemak voelt bij die aanpak, stelt Reidenberg voor om de meldfunctie op Facebook te gebruiken.

"Het is gemakkelijk en snel om te doen. De technologie kan dit niet alleen. We hebben mensen nodig die betrokken zijn. Niets doen is het ergst mogelijke wat er kan gebeuren, "zei hij.

Hoe zit het met privacykwesties?

Afgezien van de goede intentie, is het moeilijk om de inbreuk op de privacy niet te overwegen.

Charles Lee Mudd Jr., een privacyadvocaat en directeur bij Mudd Law, zegt dat het scannen op Facebook voor zoekwoorden niet als een privacyschending moet worden beschouwd als dit van tevoren is bekendgemaakt.

"Zolang Facebook onthult dat het de inhoud beoordeelt, zie ik geen echte zorgen over de privacy," vertelde Mudd aan Healthline. "Men moet begrijpen dat alles wat ergens op internet gepubliceerd wordt, ook via e-mail - privé of niet - of sociale media, zijn weg kan vinden naar onbedoelde ontvangers.Als Facebook ons ​​tenminste laat weten dat het robots heeft die onze e-mail lezen - of op zijn minst scannen op trefwoorden of zinsdelen - kunnen we ons gedrag aanpassen als dat nodig zou zijn. "

Hoewel legaal Facebook misschien duidelijk zegt of het ethisch handelt, staat het ter discussie.

Keshav Malani, mede-oprichter van Powr of You, een bedrijf dat mensen helpt geld te verdienen met hun digitale aanwezigheid, zegt dat ongeacht de bedoelingen van Facebook, iedereen vrij moet kunnen beslissen hoe zijn persoonlijke gegevens worden gebruikt.

"Of anders is het een gladde helling op wat wordt beschouwd als 'goed' versus 'slecht' gebruik van de persoonlijke informatie die we delen op platforms zoals Facebook. Ook zijn intenties niet genoeg, omdat bias in data kan resulteren in ongeldige of schadelijke claims van zelfs maar een eenvoudige historische correlatie-analyse, "vertelde Malani aan Healthline.

Hij voegt eraan toe dat AI slechts zo goed is als de gegevens die het als invoer ontvangt.

'Individuele platforms zoals Facebook proberen te veronderstellen dat ze je goed genoeg kennen om conclusies te trekken over je welzijn, zouden naïef zijn. Facebook, of een andere media-afdeling, bedekt slechts een klein deel van ons leven, en schildert vaak een foto die we willen delen, dus het trekken van conclusies uit zo'n beperkte en mogelijk vooringenomen databron moet met uiterste voorzichtigheid gebeuren " hij zei.

Toch zegt Reidenberg dat mensen niet bang hoeven te zijn voor Facebook met AI.

'Dit is geen Facebook die mensen achtervolgt of mensen in de maling neemt', zei hij. "Het gebruikt technologie en mensen om het leven van mensen te redden," zei hij. "Vertrouw me, als je een geliefde in een crisis hebt, wil je dat alles voor hen gedaan wordt, of je nu in een spoedafdeling bent of online. "

Hij hoopt zelfs dat meer technologie kan ingrijpen bij mensen in crisis.

"Wanneer iemand in een crisis verkeert, gaan opties en alternatieven daarvoor weg. Ze worden erg gefocust op wat er op dat moment gebeurt en ze hebben niet de tools die nodig zijn om ze te doorstaan, "zei hij.

Op elk moment dat technologie mensen meer opties kan bieden, zegt Reidenberg hoe minder ze in een crisis zitten. Hij zou graag zien dat technologie meer manieren creëert om mensen met een verhoogd risico te identificeren voordat ze zelfs het risico lopen van, laten we zeggen, depressie.

Hij zegt bijvoorbeeld dat als we dat weten als we depressiever worden, we minder interacteren, meer isoleren, meer intrekken, minder energie hebben, en anders praten en schrijven, dan kan het programmeren van technologie om deze veranderingen op te merken gunstig zijn.

'Stel dat je een reguliere poster op Facebook bent, maar dan wordt je meer depressief in het leven en valt je activiteit langzaam terug. Dan begin je met het plaatsen van foto's op Instagram van iemand die heel verdrietig is of een sombere dag buiten. Als we de technologie kunnen laten opzoeken wat er in je leven met je gebeurt op basis van je online gedrag, kunnen we je dingen gaan geven zoals middelen of ondersteuning, en misschien kunnen we het omdraaien, "zei Reidenberg.

Zuckerberg deelde een soortgelijk sentiment in zijn functie, zinspeelde op toekomstige plannen om AI op andere manieren te gebruiken.

"We kunnen nog veel meer doen om dit verder te verbeteren," schreef hij. "In de toekomst zal AI meer van de subtiele nuances van taal kunnen begrijpen, en in staat zijn om andere problemen te identificeren dan zelfmoord, inclusief snel andere soorten pesten en haat te ontdekken. “