Hallitusten tunnistettava tekoälyn mahdollisuuksien lisäksi myös riskit

Tekoäly ansaitsee yritysten hallitusten huomion, sillä hyvin sovellettuna se tarjoaa upeita mahdollisuuksia. Organisaatiot, jotka menestyksellisesti hyödyntävät tekoälyä, voivat myllertää markkinat ja kasvaa nopeasti ja kannattavasti. Sen sijaan huonosti hyödynnettynä tekoäly tuottaa ongelmia. Sen käyttö aiheuttaa tyypillisesti eettisiä, juridisia ja ohjelmointiin liittyviä riskejä, jotka täytyy hallita huolellisesti. Liiketoiminnasta vastaavat ymmärtävät tekoälystä usein liian vähän. Monet organisaatiot ovat myös epävarmoja, milloin ja missä tekoälyä tulisi käyttää.


Tekoäly on yrityksille sekä riskienhallinnan väline että lähde usealle uudelle riskille, joita täytyy hallita. Riippumatta siitä, milloin uudet teknologiat otetaan käyttöön, on tärkeää, että riskit, jotka liittyvät yksittäisiin tekoälysovelluksiin ja niitä käyttäviin liiketoimintoihin, ymmärretään. Oletko sinä jo tunnistanut riskit edustamasi yrityksen liiketoiminnassa tai onko yrityksesi hallitus vaatinut toimivalta johdolta varmistusta asioiden tilaan? Riskejä ovat muun muassa:

Algoritmiset harhat
Koneoppimisen algoritmit tunnistavat tiedossa rakenteita, joiden perusteella ne tekevät ennusteita, malleja ja päätöksiä. Jos nämä kaavat sattuvat heijastelemaan joitain olemassa olevia vinoumia, koneoppivat algoritmit todennäköisesti vahvistavat harhaa ja saattavat tuottaa tuloksia, jotka vahvistavat olemassa olevia syrjiviä ominaisuuksia. Esimerkiksi rekrytointiprosessissa eteenpäin pääseviä kandidaatteja valittaessa saatetaan syrjiä jotain ryhmää, jos kyseisen ryhmän edustajia on perusteetta ollut aiemmin valituksi tulleiden joukossa vain vähän.

Tekoälyn potentiaalin yliarviointi
Tekoälyyn liittyvän innostuksen takia on helppo yliarvioida sen nykyinen potentiaali. Tekoälyä hyödyntävät järjestelmät eivät ymmärrä suorittamiansa tehtäviä ja tukeutuvat tietoon, jolla ne on koulutettu. Ne eivät siis ole erehtymättömiä. Tekoälyjärjestelmien tuottamien tulosten luotettavuus vaarantuu, jos käytettävä syöttötieto on vinoutunutta, epätäydellistä tai huonolaatuista.

Ohjelmointivirheet
Virheet ovat yleinen ongelma kaikissa tietokoneohjelmissa, myös tekoälyssä. Siellä, missä virheitä on, algoritmit eivät suoriudu odotetulla tavalla ja saattavat tuottaa harhaanjohtavia tuloksia, joilla on vakavia seurauksia. Mahdollisena esimerkkinä toimii talousraportoinnin luotettavuuden vaarantuminen.

Riski kyberhyökkäyksistä
On todennäköistä, että hakkerit, jotka haluavat varastaa yrityksen hallussa olevia henkilötietoja tai muuta luottamuksellista tietoa, kohdistavat hyökkäyksensä tekoälyjärjestelmiin. Jos hakkerit saavat haltuunsa algoritmeja, jotka tekevät merkittäviä päätöksiä, esimerkiksi robottien kontrollointia, hyökkäyksen vaikutukset voivat olla tuhoisia.

Juridiset riskit ja vastuut
Tällä hetkellä tekoälyyn liittyvää lainsäädäntöä on vähän. Muutoksia on kuitenkin tiedossa. Järjestelmät, jotka analysoivat isoja asiakasdatamassoja, eivät kuitenkaan välttämättä ole yhteen sovitettavissa nykyiseen ja tulevaan tietosuojalainsäädäntöön, kuten GDPR:iin.

Maineriskit
Tekoälyä hyödyntävät ohjelmat käsittelevät usein massiivisia määriä arkaluontoista tietoa ja ovat vastuussa varsin kriittisistä päätöksistä yksilöihin liittyen. Hyvinä esimerkkeinä toimivat luotto-, koulutus- tai terveystiedot. Näiden tietojen vuotaminen tai hakkerointi asettaa yritykset alttiiksi vakaville maineriskeille.

Tekoälyn hallitsemiseksi laadittu periaatteet

Vuonna 2017 ACM eli Association for Computing Machinery US Public Policy Council ja ACM Europe Council tekivät julkilausuman periaatteista algoritmien läpinäkyvään ja vastuulliseen käyttöön*. Niiden tarkoituksena on varmistaa, että kehittäjät, jotka rakentavat automaattisia päätöksentekojärjestelmiä, noudattavat samoja standardeja kuin päätöksiä tekevät ihmisetkin. ACM:n seitsemän periaatetta ovat:
1. Tietoisuus
2. Oikaisu/hyvitys
3. Tilivelvollisuus
4. Perustelu
5. Datan alkuperä
6. Auditoitavuus
7. Validointi ja testaus
________________________________________
* Statement on Algorithmic Transparency and Accountability, ACM US Public Policy Council and ACM Europe Council, May 2017
Huolehdi ainakin näistä

Yritysten hallitusten tulisi ymmärtää, miten tekoälyteknologiaa käytetään organisaation sisällä ja toimittaessa ulkoisten sidosryhmien kanssa. Hallitusten pitäisi myös varmistaa, että organisaatiolla on asianmukaiset rakenteet ja tavat toimia tekoälyn käytön etiikan hallinnassa sekä ymmärtää, miten algoritmien käyttöön liittyviä vinoumia hallitaan. Lisäksi on tärkeää olla tietoinen menettelyjen ja lainsäädännön kehittymisestä. Näin voidaan varmistaa, että yrityksellä on oikea tasapaino algoritmien läpinäkyvyyden ja vastuiden välillä. Hallitusten pitäisi voida luottaa siihen, että yrityksen ’musta laatikko’ eli koneoppimisen järjestelmä on kestävällä pohjalla. Luottamus voidaan saavuttaa vain perusteellisella läpikäynnillä. On varmistettava, että järjestelmät tuottavat odotetun laisia tuloksia ja että järjestelmissä on asianmukaiset kontrollit niiden kehittyessä ajan myötä.

Miten edustamasi yrityksessä on varauduttu siihen, että tekoäly saadaan valjastettua mahdollisuudeksi eikä uhkaksi?


EY - Antti Hakkarainen

Antti Hakkarainenemail

Partner Antti Hakkarainen johtaa EY:n Risk Transformation -palveluita Pohjoismaissa. antti.hakkarainen@fi.ey.com



Vastaa

Täytä tietosi alle tai klikkaa kuvaketta kirjautuaksesi sisään:

WordPress.com-logo

Olet kommentoimassa WordPress.com -tilin nimissä. Log Out /  Muuta )

Google+ photo

Olet kommentoimassa Google+ -tilin nimissä. Log Out /  Muuta )

Twitter-kuva

Olet kommentoimassa Twitter -tilin nimissä. Log Out /  Muuta )

Facebook-kuva

Olet kommentoimassa Facebook -tilin nimissä. Log Out /  Muuta )

w

Muodostetaan yhteyttä palveluun %s