Industriële fabricage
Industrieel internet der dingen | Industriële materialen | Onderhoud en reparatie van apparatuur | Industriële programmering |
home  MfgRobots >> Industriële fabricage >  >> Industrial Internet of Things >> Internet of Things-technologie

Verantwoorde en betrouwbare AI bouwen

Scott Zoldi van FICO

Naarmate het gebruik van AI nog alomtegenwoordiger wordt, zullen datawetenschappers en organisaties alleen maar 'hun best doen' niet voldoende zijn. Scott Zoldi, AI-expert bij FICO legt uit dat met de opkomst van AI-advocaten, verantwoorde AI de verwachting en standaard zal zijn.

In de afgelopen jaren zijn data en AI op grote schaal gebruikt in een groot aantal industrieën om strategieën en diensten te informeren en vorm te geven, van gezondheidszorg en detailhandel tot bankieren en verzekeren. En recentelijk is AI naar voren gekomen bij het traceren in de strijd tegen het coronavirus.

De toenemende hoeveelheden digitaal gegenereerde gegevens, in combinatie met de behoefte aan geautomatiseerde besluitvorming mogelijk gemaakt door AI, stellen echter nieuwe uitdagingen voor bedrijven en overheden, met een groeiende focus op de redenering achter AI-besluitvormingsalgoritmen.

Naarmate AI de besluitvorming verder weghaalt van de personen waarop de beslissing van invloed is, kunnen de beslissingen ongevoeliger en misschien zelfs onzorgvuldiger lijken. Het is niet ongebruikelijk dat organisaties gegevens en algoritmen aanhalen als rechtvaardiging voor impopulaire beslissingen en dit kan een reden tot bezorgdheid zijn als het gaat om het maken van fouten door gerespecteerde leiders.

Enkele voorbeelden zijn:de racistische en beledigende online chatbot van Microsoft in 2016, het AI-wervingssysteem van Amazon dat vrouwelijke sollicitanten negeerde in 2018 en de Tesla-auto die crashte in Autopilot nadat hij in 2019 een vrachtwagen voor een hangend straatnaambord had aangezien.

Naast de kans op onjuiste besluitvorming, is er ook het probleem van AI-bias. Als gevolg hiervan is er nieuwe regelgeving ingevoerd om de rechten van de consument te beschermen en de ontwikkelingen op het gebied van AI nauwlettend in de gaten te houden.

De pijlers van verantwoorde AI

Organisaties moeten nu robuuste AI afdwingen. Om dit te doen, moeten ze hun normen versterken en bepalen met drie pijlers van verantwoorde AI:verklaarbaarheid, verantwoording en ethiek. Als deze aanwezig zijn, kunnen alle soorten organisaties erop vertrouwen dat ze degelijke digitale beslissingen nemen.

Verklaarbaarheid :Een bedrijf dat vertrouwt op een AI-beslissingssysteem moet ervoor zorgen dat het een algoritmische constructie heeft die de relaties tussen de beslissingsvariabelen vastlegt om tot een zakelijke beslissing te komen. Met toegang tot deze gegevens kan een bedrijf uitleggen waarom het model de beslissing heeft genomen die het heeft genomen - bijvoorbeeld een transactie gemarkeerd als een hoog risico op fraude. Deze uitleg kan vervolgens door menselijke analisten worden gebruikt om de implicaties en nauwkeurigheid van de beslissing.

Verantwoordelijkheid :Modellen voor machinaal leren moeten correct worden gebouwd en met een focus op de beperkingen van machine learning en zorgvuldig nadenken over de gebruikte algoritmen. Technologie moet transparant en compliant zijn. Doordachtheid bij het ontwikkelen van modellen zorgt ervoor dat de beslissingen zinvol zijn, scores passen zich bijvoorbeeld op de juiste manier aan met toenemend risico.

Naast verklaarbare AI is er het concept van eenvoudige AI - ervoor zorgend dat het model alleen wordt gebruikt op de gegevensvoorbeelden die vergelijkbaar zijn met gegevens waarop het is getraind. Waar dat niet het geval is, is het model mogelijk niet betrouwbaar en moet men downgraden naar een alternatief algoritme.

Ethiek :Voortbouwend op verklaarbaarheid en verantwoording moeten ethische modellen zijn getest en alle discriminatie zijn verwijderd. Met verklaarbare machine learning-architecturen kunnen de niet-lineaire relaties worden geëxtraheerd die doorgaans de innerlijke werking van de meeste machine learning-modellen verbergen. Deze niet-lineaire relaties moeten worden getest, omdat ze worden geleerd op basis van de gegevens waarop het model is getraind en deze gegevens zijn maar al te vaak impliciet vol maatschappelijke vooroordelen. Ethische modellen zorgen ervoor dat vooringenomenheid en discriminatie expliciet worden getest en verwijderd.

Krachten die verantwoorde AI afdwingen

Het bouwen van verantwoorde AI-modellen kost tijd en nauwgezet werk, waarbij nauwgezette voortdurende controle cruciaal is om blijvend verantwoorde AI af te dwingen. Dit onderzoek moet regelgeving, audit en belangenbehartiging omvatten.

Regelgeving is van belang voor het stellen van de gedragsnorm en rechtsstaat voor het gebruik van algoritmen. Aan de eindregelgeving wordt echter wel of niet voldaan en het aantonen van afstemming met de regelgeving vereist een audit.

Het aantonen van naleving van regelgeving vereist een kader voor het creëren van controleerbare modellen en modelleringsprocessen. Deze auditmaterialen omvatten het modelontwikkelingsproces, gebruikte algoritmen, biasdetectietests en demonstratie van het gebruik van redelijke beslissingen en scores. Tegenwoordig worden procesaudits voor modelontwikkeling op lukrake manieren uitgevoerd.

Er worden nieuwe op blockchain gebaseerde auditsystemen voor modelontwikkeling geïntroduceerd om onveranderlijke modelontwikkelingsnormen, testmethoden en resultaten af ​​te dwingen en vast te leggen. Verder worden ze gebruikt voor het vastleggen van gedetailleerde bijdragen van de goedkeuringen van datawetenschappers en het management gedurende de ontwikkelingscyclus van het model.

Kijkend naar de toekomst zullen organisaties ‘hun best doen’ met data en AI niet genoeg zijn. Met de opkomst van AI-voorstanders en het echte lijden dat wordt toegebracht door verkeerde uitkomsten van AI-systemen, zal verantwoordelijke AI binnenkort de verwachting en de standaard zijn over de hele linie en over de hele wereld.

Organisaties moeten nu verantwoorde AI afdwingen en hun normen voor AI-verklaarbaarheid, aansprakelijkheid en ethiek versterken en bepalen om ervoor te zorgen dat ze zich verantwoordelijk gedragen bij het nemen van digitale beslissingen.

De auteur is Dr. Scott Zoldi, Chief Analytics Officer bij FICO .

Over de auteur

Dr. Scott Zoldi is chief analytics officer bij FICO. Bij FICO was Scott verantwoordelijk voor het schrijven van 110 gepatenteerde patenten, waarvan 56 toegekend en 54 in behandeling. Scott is actief betrokken bij de ontwikkeling van nieuwe analytische producten en Big Data-analysetoepassingen, waarvan vele gebruikmaken van nieuwe streaminganalyse-innovaties zoals adaptieve analyse, collaboratieve profilering en zelfkalibrerende analyses. Scott is lid van twee raden van bestuur, Software San Diego en Cyber ​​Center of Excellence. Scott behaalde zijn Ph.D. in theoretische en computationele fysica van Duke University.


Internet of Things-technologie

  1. termen en concepten voor digitaal geheugen
  2. C#-variabelen en (primitieve) gegevenstypen
  3. Python Type Conversie en Type Casting
  4. Botten bouwen met Raspberry Pi en Python
  5. Bondgenoten bouwen en succes bevorderen
  6. Hyperconvergentie en secundaire opslag:deel 2
  7. Beveiliging inbouwen in verouderde infrastructuur
  8. Waarom big data en gebouwanalyse nergens heen gaan:deel 1
  9. IoT en uw begrip van data
  10. IoT en AI lopen voorop in technologie
  11. De toekomst van data-integratie in 2022 en daarna