Waarom we AI nodig hebben die zichzelf verklaart

Inhoudsopgave:

Waarom we AI nodig hebben die zichzelf verklaart
Waarom we AI nodig hebben die zichzelf verklaart
Anonim

Belangrijkste afhaalrestaurants

  • Bedrijven gebruiken steeds vaker AI die uitlegt hoe het resultaten beha alt.
  • LinkedIn verhoogde onlangs zijn abonnementsinkomsten na het gebruik van AI die voorspelde dat klanten het risico liepen te annuleren en beschreef hoe het tot zijn conclusies kwam.
  • De Federal Trade Commission heeft gezegd dat AI die niet verklaarbaar is, kan worden onderzocht.
Image
Image

Een van de populairste nieuwe trends in software zou kunstmatige intelligentie (AI) kunnen zijn, die verklaart hoe het zijn resultaten bereikt.

Verklaarbare AI werpt zijn vruchten af nu softwarebedrijven AI begrijpelijker proberen te maken. LinkedIn verhoogde onlangs zijn abonnementsinkomsten na het gebruik van AI die voorspelde dat klanten het risico liepen te annuleren en beschreef hoe het tot zijn conclusies kwam.

"Verklaarbare AI gaat over het kunnen vertrouwen op de output en begrijpen hoe de machine daar terecht is gekomen", vertelde Travis Nixon, de CEO van SynerAI en Chief Data Science, Financial Services bij Microsoft, aan Lifewire in een e-mailinterview.

"'Hoe?' is een vraag die aan veel AI-systemen wordt gesteld, vooral wanneer beslissingen worden genomen of outputs worden geproduceerd die niet ideaal zijn, "voegde Nixon eraan toe. "Van het oneerlijk behandelen van verschillende rassen tot het aanzien van een kaal hoofd voor een voetbal, we moeten weten waarom AI-systemen hun resultaten produceren. Zodra we het 'hoe' begrijpen, positioneert het bedrijven en individuen om te antwoorden 'wat nu?'."

AI leren kennen

AI heeft bewezen accuraat te zijn en maakt vele soorten voorspellingen. Maar AI kan vaak uitleggen hoe het tot zijn conclusies is gekomen.

En regelgevers nemen kennis van het AI-verklaarbaarheidsprobleem. De Federal Trade Commission heeft gezegd dat AI die niet verklaarbaar is, kan worden onderzocht. De EU overweegt de goedkeuring van de Artificial Intelligence Act, die eisen bevat dat gebruikers AI-voorspellingen kunnen interpreteren.

Linkedin is een van de bedrijven die denken dat verklaarbare AI kan helpen de winst te vergroten. Voorheen vertrouwden LinkedIn-verkopers op hun kennis en besteedden ze enorm veel tijd aan het doorzoeken van offline gegevens om te bepalen welke accounts waarschijnlijk zaken zouden blijven doen en in welke producten ze geïnteresseerd zouden kunnen zijn tijdens de volgende contractverlenging. Om het probleem op te lossen, startte LinkedIn een programma genaamd CrystalCandle dat trends signaleert en verkopers helpt.

In een ander voorbeeld zei Nixon dat tijdens het creëren van een quota-instellingsmodel voor het verkoopteam van een bedrijf, zijn bedrijf in staat was om verklaarbare AI op te nemen om te identificeren welke kenmerken wezen op een succesvolle nieuwe verkoopmedewerker.

"Met deze output was het management van dit bedrijf in staat om te herkennen welke verkopers op het 'snelle pad' moesten worden gezet en welke coaching nodig hadden, allemaal voordat er grote problemen ontstonden, "voegde hij eraan toe.

Veel gebruik voor verklaarbare AI

Verklaarbare AI wordt momenteel gebruikt als een darmcontrole voor de meeste datawetenschappers, zei Nixon. De onderzoekers leiden hun model door middel van eenvoudige methoden, zorgen ervoor dat er niets volledig defect is en verzenden het model vervolgens.

"Dit komt deels omdat veel datawetenschapsorganisaties hun systemen hebben geoptimaliseerd rond 'time over value' als KPI, wat leidt tot gehaaste processen en onvolledige modellen," voegde Nixon eraan toe.

Ik ben bang dat de terugslag van onverantwoordelijke modellen de AI-industrie op een serieuze manier terug kan brengen.

Mensen zijn vaak niet overtuigd door resultaten die AI niet kan verklaren. Raj Gupta, de Chief Engineering Officer bij Cogito, zei in een e-mail dat zijn bedrijf klanten heeft ondervraagd en ontdekte dat bijna de helft van de consumenten (43%) een positievere perceptie van een bedrijf en AI zou hebben als bedrijven explicieter zouden zijn over het gebruik ervan. van de technologie.

En het zijn niet alleen financiële gegevens die een helpende hand krijgen van verklaarbare AI. Een gebied dat profiteert van de nieuwe aanpak zijn afbeeldingsgegevens, waar het gemakkelijk is om aan te geven welke delen van een afbeelding volgens het algoritme essentieel zijn en waar het voor een mens gemakkelijk is om te weten of die informatie zinvol is, Samantha Kleinberg, universitair hoofddocent bij Stevens Institute of Technology en een expert in verklaarbare AI, vertelde Lifewire via e-mail.

"Het is veel moeilijker om dat te doen met een ECG of continue glucosemonitorgegevens", voegde Kleinberg eraan toe.

Nixon voorspelde dat verklaarbare AI in de toekomst de basis zou zijn van elk AI-systeem. En zonder verklaarbare AI kunnen de resultaten verschrikkelijk zijn, zei hij.

"Ik hoop dat we op dit front ver genoeg vorderen om verklaarbare AI de komende jaren als vanzelfsprekend te beschouwen en dat we vandaag verbaasd terugkijken op die tijd dat iemand gek genoeg zou zijn om modellen in te zetten die ze niet begrepen, " hij voegde toe."Als we de toekomst niet op deze manier tegemoet treden, ben ik bang dat de terugslag van onverantwoordelijke modellen de AI-industrie op een serieuze manier terug kan brengen."

Aanbevolen: