Eettinen AI esitelty: Osallistujadynamiikka, todelliset tapauskohtaiset esimerkit ja tie globaaliin hallintaan
- Eettisen AI:n markkinanäkymät ja keskeiset ajurit
- E Emergentteknologiat, jotka muovaavat eettistä AI:ta
- Osallistujan analyysi ja teollisuuden kilpailu
- Eettisen AI:n ennustettu kasvu ja sijoitusmahdollisuudet
- Alueelliset näkökulmat ja politiikkalähestymistavat eettiseen AI:hin
- Tulevaisuuden tie: Innovaatioita ja kehittyvää hallintoa
- Esteet, riskit ja strategiset mahdollisuudet eettisessä AI:ssa
- Lähteet & Viitteet
“Keskeiset eettiset haasteet AI:ssa.” (lähde)
Eettisen AI:n markkinanäkymät ja keskeiset ajurit
Eettinen AI -markkina kehittyy nopeasti, kun organisaatiot, hallitukset ja kansalaisyhteiskunta tunnistavat tekoälyn syvällisen vaikutuksen yhteiskuntaan. Globaali eettisen AI: n markkina oli vuonna 2023 noin 1,2 miljardia USD ja sen arvioidaan nousevan 6,4 miljardiin USD vuoteen 2028 mennessä, kasvaen 39,8 %:n yhdistetyn vuotuisen kasvuvauhdin (CAGR) myötä. Tämä kasvu johtuu lisääntyvästä sääntelyvalvonnasta, julkisesta vaatimuksesta läpinäkyvyyteen ja tarpeesta vähentää tekoälyn käyttöönottoon liittyviä riskejä.
-
Haasteet:
- Hiljaisuus ja reiluus: AI-järjestelmät voivat vahvistaa tai voimistaa koulutusdatassa läsnä olevia ennakkoluuloja, mikä johtaa epäoikeudenmukaisiin lopputuloksiin. Korkean profiilin tapaukset, kuten ennakkoluuloinen kasvojentunnistusjärjestelmä ja syrjivät rekrytointialgoritmit, ovat korostaneet tarvetta voimakkaille eettisille viitekehyksille (Nature).
- Läpinäkyvyys ja selitettävyyys: Monet AI-mallit, erityisesti syväoppimiseen perustuvat järjestelmät, toimivat ”mustina laatikoina”, mikä vaikeuttaa niiden päätöksentekoprosessien ymmärtämistä tai tarkastamista (Brookings).
- Yksityisyys: Henkilökohtaisten tietojen käyttö AI:ssa herättää merkittäviä yksityisyysongelmia, erityisesti generatiivisen AI:n ja valvontateknologian yleistymisen myötä.
- Vastuullisuus: Vastuullisuuden määrittäminen AI-pohjaisissa päätöksissä on monimutkainen oikeudellinen ja eettinen kysymys.
-
Osallistujat:
- Teknologiyritykset: Suurimmat AI-kehittäjät, kuten Google, Microsoft ja OpenAI, investoivat eettisen AI:n tutkimukseen ja perustavat sisäisiä eettisiä lautakuntia (Microsoft Responsible AI).
- Hallitukset ja sääntelijät: EU:n AI-laki ja Yhdysvaltojen suunnitelma AI:n perusoikeuksista ovat esimerkkejä kasvavasta sääntelyohjauksesta (EU AI Act).
- Kansalaisyhteiskunta ja akatemia: KANSALAISELIMET ja tutkimuslaitokset ajavat ihmisoikeuksia, oikeudenmukaisuutta ja osallistavuutta AI-kehityksessä.
-
Tapaukset:
- COMPAS-rikollisuuden toistuvuusalgoritmi: Kritisoitu rodullisista ennakkoluuloista rikosoikeudellisissa riskinarvioinneissa (ProPublica).
- Amazonin rekrytool: Hylätty sen jälkeen, kun havaittiin, että se syrjii naispuolisia hakijoita (Reuters).
-
Globaali hallinta:
- Kansainväliset järjestöt, kuten UNESCO ja OECD, ovat julkaisseet suosituksia luotettavan AI:n osalta (UNESCO:n suositus tekoälyn eettisyydestä).
- Standardien harmonisoimiseksi ja rajat ylittävän yhteistyön edistämiseksi on käynnissä ponnisteluja, mutta haasteita on edelleen erilaisten kansallisten prioriteettien ja arvojen vuoksi.
Koska AI:n käyttöönotto kiihtyy, eettinen AI -markkina muotoutuu jatkuvien keskustelujen, sääntelykehitysten ja erilaisten osallistujien kollektiivisten toimintojen myötä maailmanlaajuisesti.
E Emergingteknologiat, jotka muovaavat eettistä AI:ta
Kun tekoäly (AI) järjestelmät integroituvat yhä enemmän yhteiskuntaan, niiden aiheuttamat eettiset haasteet ovat nousseet teknologisen keskustelun keskiöön. AI-teknologioiden nopea kehitys – kuten generatiiviset mallit, autonomiset järjestelmät ja algoritminen päätöksenteko – herättää monimutkaisempia kysymyksiä oikeudenmukaisuudesta, läpinäkyvyydestä, vastuullisuudesta ja yhteiskunnallisista vaikutuksista. Näiden haasteiden ratkaiseminen edellyttää erilaisten osallistujien yhteistyötä ja voimakkaiden globaalien hallinta-viitekehysten kehittämistä.
-
Keskeiset haasteet:
- Hiljaisuus ja reiluus: AI-järjestelmät voivat vahvistaa tai voimistaa olemassa olevia ennakkoluuloja koulutusdatassa, mikä johtaa syrjiviin lopputuloksiin. Esimerkiksi kasvojentunnistusteknologiat ovat osoittaneet korkeampia virheprosentteja värillisille ihmisille (NIST).
- Läpinäkyvyys ja selitettävyyys: Monet AI-mallit, erityisesti syväoppimiseen perustuvat järjestelmät, toimivat ”mustina laatikoina”, mikä vaikeuttaa niiden päätösten ymmärtämistä tai selittämistä (Nature Machine Intelligence).
- Vastuullisuus: Vastuullisuuden määrittäminen AI-pohjaisissa päätöksissä – erityisesti korkean riskin alueilla, kuten terveydenhuollossa tai rikosoikeudessa – on edelleen merkittävä haaste.
- Yksityisyys: AI:n kyky käsitellä suuret määrät henkilötietoja herättää huolta valvonnasta ja tietojen väärinkäytöstä (Privacy International).
-
Osallistujat:
- Hallitukset: Sääntelystandardien asettaminen ja vaatimustenmukaisuuden varmistaminen.
- Teollisuus: AI-järjestelmien vastuullinen kehittäminen ja käyttöönotto.
- Akatemia: Tutkimuksen edistäminen eettisestä AI:sta ja parhaista käytännöistä.
- Kansalaisyhteiskunta: Ihmisoikeuksien ja yleisen edun ajaminen.
- Kansainväliset järjestöt: Rajat ylittävän yhteistyön ja standardien harmonisoimisen mahdollistaminen.
-
Huomionarvoiset tapaukset:
- COMPAS-algoritmi: Käytetään Yhdysvaltojen tuomioistuimissa toistuvuuden ennustamiseen, kritisoitu rodullisista ennakkoluuloista (ProPublica).
- GPT-4 ja generatiivinen AI: Huolia väärinkäytöksistä, syvävaleista ja tekijänoikeusrikkomuksista (Brookings).
-
Globaali hallinta:
- EU:n AI-laki (2024) on maailman ensimmäinen kattava AI-laki, joka asettaa tiukkoja vaatimuksia korkean riskin AI-järjestelmille.
- OECD:n AI-periaatteet ja UNESCO:n suositus tekoälyn eettisyydestä tarjoavat globaaleja viitekehyksiä vastuulliselle AI-kehitykselle.
Koska AI-teknologiat jatkavat edistymistään, teknisen innovaation, eettisten näkökohtien ja globaalin hallinnan välinen vuorovaikutus on tärkeää sen varmistamiseksi, että AI palvelee yleistä hyvinvointia samalla, kun haittoja minimoidaan.
Osallistujan analyysi ja teollisuuden kilpailu
Eettinen AI: Haasteet, Osallistujat, Tapaukset ja Globaali Hallinta
Tekoälyn (AI) nopea kehitys on tuonut eettiset näkökohdat teollisuuden ja politiikan keskusteluiden keskiöön. Eettisen AI:n päähaasteet sisältävät algoritmisen ennakkoluulon, läpinäkyvyyden, vastuullisuuden, yksityisyyden ja mahdollisen väärinkäytön alueilla kuten valvonta ja autonomiset aseet. Vuoden 2023 Maailman talousfoorumin raportin mukaan 62 % maailman johtajista nimeää eettiset riskit tärkeimmiksi huolenaiheiksi AI:n käyttöönotossa.
Keskeiset osallistujat
- Teknologiyritykset: Suurimmat AI-kehittäjät, kuten OpenAI, Microsoft ja Google DeepMind, ovat keskiössä eettisen AI:n keskusteluissa, muokaten standardeja ja parhaita käytäntöjä.
- Hallitukset ja sääntelijät: Toimijat, kuten Euroopan unioni ja Yhdysvaltain Valkoinen talo, kehittävät viitekehyksiä vastuullisen AI:n käyttöönottamiseksi.
- Akatemia ja Kansalaisyhteiskunta: Tutkimuslaitokset ja KANSALAISELIMET, kuten AI Ethics Lab ja Partnership on AI, ajavat osallistavien, läpinäkyvien ja oikeudenmukaisten AI-järjestelmien kehittämistä.
- Paanikäyttäjät ja julkisuus: Yksilöt ja yhteisöt, joita AI-pohjaiset päätökset vaikuttavat, erityisesti herkissä sektoreissa kuten terveydenhuollossa, rahoituksessa ja rikosoikeudessa.
Huomionarvoiset tapaukset
- COMPAS-algoritmi: COMPAS-algoritmin käyttö Yhdysvaltain tuomioistuimissa herätti huolta rodullisista ennakkoluuloista toistuvuuden ennustamisessa (ProPublica).
- Kasvojentunnistuskielto: Kaupungit kuten San Francisco ja Boston ovat kieltäneet hallituksen käytön kasvojentunnistuksessa yksityisyyden ja syrjinnän riskien vuoksi (The New York Times).
Globaali hallinta ja teollisuuden kilpailu
Ponnisteluja globaalin AI-hallinnan perustamiseksi vahvistuu. OECD:n AI-periaatteet ja G7:n Hiroshima AI -prosessi pyrkivät harmonisoimaan standardeja rajojen yli. Kuitenkin kilpailu Yhdysvaltojen, Kiinan ja EU:n välillä AI:n johtajuudesta monimutkaistaa konsensusta, sillä jokainen alue korostaa erilaisia arvoja ja sääntelylähestymistapoja (Brookings).
Eettisen AI:n ennustettu kasvu ja sijoitusmahdollisuudet
Eettisen AI:n ennustettu kasvu on tiiviisti sidoksissa sen haasteiden kasvavaan tunnustamiseen, mukaan lukien osallistujien monimuotoisuus, merkittävät todelliset tapaukset ja kehittyvä globaali hallintaympäristö. Kun tekoälyjärjestelmät yleistyvät, huoli ennakkoluuloista, läpinäkyvyydestä, vastuullisuudesta ja yhteiskunnallisista vaikutuksista on saanut sekä julkisen että yksityisen sektorin priorisoimaan eettisiä näkökulmia AI:n kehittämisessä ja käyttöönotossa.
Haasteet: Eettisen AI:n päähaasteita ovat algoritmisen ennakkoluulon vähentäminen, tietosuojan varmistaminen ja selkeän vastuullisuuden määrittäminen AI-pohjaisille päätöksille. Maailman talousfoorumin raportin mukaan 62 % organisaatioista mainitsee eettiset riskit merkittäviksi esteiksi AI:n käyttöönotossa. Standardoitujen viitekehysten puute ja AI-järjestelmien sovittamisen monimutkaisuus erilaisten kulttuuristen ja oikeudellisten normien mukana lisäävät haastavaa ympäristöä.
Osallistujat: Eettisen AI:n ekosysteemi kattaa laajan valikoiman osallistujia:
- Hallitukset laativat sääntelyä, kuten EU:n AI-lain, asettaakseen oikeudellisia standardeja AI:n eettisyydelle.
- Teknologiyritykset investoivat vastuulliseen AI:n tutkimukseen ja sisäisiin eettisiin lautakuntiin.
- Akatemia edistää tutkimusta oikeudenmukaisuudesta, selitettävyyksistä ja yhteiskunnallisista vaikutuksista.
- Kansalaisyhteiskunta järjestöt ajavat ihmisoikeuksia ja osallistavuutta AI-järjestelmissä.
Tapaukset: Korkean profiilin tapahtumat, kuten ennakkoluuloinen kasvojentunnistusjärjestelmä ja syrjivät rekrytointialgoritmit, ovat korostaneet eettisen valvonnan tarvetta. Esimerkiksi New York Times -tutkimus paljasti rodullisen ennakkoluulon kaupallisissa AI-työkaluissa, mikä johti tiukempien sääntely- ja läpinäkyvyysvaatimusten esittämiseen.
Globaali hallinta: Kansainväliset tahot siirtyvät kohti harmonisoituja standardeja. UNESCO:n suositus tekoälyn eettisyydestä (2021) on ensimmäinen globaali viitekehys, joka on hyväksytty 193 maassa ja joka pyrkii ohjaamaan eettistä kehittämistä ja tekoälyn käyttöä maailmanlaajuisesti.
Sijoitusmahdollisuudet: Eettisen AI:n markkinoiden arvioidaan kasvavan 38,8 %:n vuosimääräisestä kasvuvauhdista (CAGR) vuosina 2023–2030, saavuttaen 21,3 miljardia dollaria vuoteen 2030 mennessä (MarketsandMarkets). Sijoitukset suuntautuvat startupeihin, jotka keskittyvät AI:n tarkastamiseen, ennakkoluulon havaitsemiseen ja vaatimustenmukaisuusvälineisiin, sekä konsulttitoimistoihin, jotka auttavat organisaatioita navigoimaan uusissa sääntelyissä. Kun globaalit hallintakehykset kypsyvät, kysyntä eettisille AI-ratkaisuille odotetaan kiihtyvän, mikä tarjoaa suuria mahdollisuuksia sijoittajille ja innovoijille.
Alueelliset näkökulmat ja politiikkalähestymistavat eettiseen AI:hin
Eettinen AI on noussut keskeiseksi huolenaiheeksi päättäjille, teollisuuden johtajille ja kansalaisyhteiskunnalle ympäri maailman. Haasteet oikeudenmukaisuuden, läpinäkyvyyden, vastuullisuuden ja yksityisyyden varmistamisessa AI-järjestelmissä ovat monimutkaisempia teknologisen kehityksen nopeuden ja AI:n globaaleuden vuoksi. Keskeisiä osallistujia ovat hallitukset, teknologiyritykset, akateemiset instituutiot, kansalaisjärjestöt ja vaikuttavat yhteisöt, joilla kaikilla on erilaiset näkökulmat ja prioriteetit.
Yksi päähaasteista on yleisesti hyväksyttyjen eettisten AI -standardien puute. Vaikka Euroopan unioni on ottanut ennakoivan aseman AI-lain kanssa, joka korostaa riskipohjaista sääntelyä ja ihmisen valvontaa, muut alueet, kuten Yhdysvallat, ovat omaksuneet sektorikohtaisemman ja vapaaehtoisen lähestymistavan, kuten suunnitelma AI:n perusoikeuksista. Toisaalta Kiinan lähestymistapa keskittyy valtiolliseen hallintaan ja kansallisten prioriteettien määrittämiseen, kuten on esitetty Generatiivisen AI:n palveluiden hallinnointia koskevissa väliaikaisissa toimenpiteissä.
Viimeaikaiset tapaukset korostavat eettisen AI:n monimutkaisuutta. Esimerkiksi kasvojentunnistusteknologian käyttö lainvalvonnassa Yhdistyneessä kuningaskunnassa ja Yhdysvalloissa on herättänyt huolta ennakkoluuloista ja yksityisyysrikkomuksista (Amnesty International). Toisessa tapauksessa AI:n käyttö rekrytointiprosesseissa on herättänyt kritiikkiä syrjinnän ylläpitämisestä, mikä on johtanut sääntelytoimenpiteisiin, kuten New Yorkin Paikallinen laki 144, joka vaatii ennakkoluuloarviointeja automatisoiduille työntekijöille.
Globaali hallinta on edelleen pirstaloitunutta, ja erilaisia lähestymistapoja harmonisoimiseen on käynnissä. OECD:n AI-periaatteet ja UNESCO:n suositus tekoälyn eettisyydestä edustavat yrityksiä luoda yhteistä pohjaa, mutta toimeenpanomekanismit ovat rajallisia. G7:n Hiroshima AI -prosessi ja Global Partnership on AI osoittavat edelleen monenvälisiä ponnistuksia rajat ylittävien haasteiden ratkaisemiseksi.
- Haasteet: Standardointi, toimeenpano, ennakkoluulo, yksityisyys ja läpinäkyvyys.
- Osallistujat: Hallitukset, teknologiyritykset, akatemia, kansalaisjärjestöt ja yleisö.
- Tapaukset: Kasvojentunnistus, AI rekrytoinnissa ja generatiivisen AI:n sääntely.
- Globaali hallinta: OECD, UNESCO, G7 ja monenväliset kumppanuudet.
Tulevaisuuden tie: Innovaatioita ja kehittyvää hallintoa
Eettinen AI: Haasteet, Osallistujat, Tapaukset ja Globaali Hallinta
Kun tekoäly (AI) järjestelmät integroituvat yhä enemmän kriittisiin sektoreihin – terveydenhuollosta ja rahoituksesta lainvalvontaan ja koulutukseen – niiden kehittämiseen ja käyttöönottoon liittyvät eettiset haasteet ovat nousseet keskiöön. Tärkeitä huolenaiheita ovat algoritminen ennakkoluulo, läpinäkyvyys, vastuullisuus, yksityisyys ja mahdollisuus vähäisiin väärinkäytöksiin. Esimerkiksi tutkimus vuodelta 2023, jonka teki Nature, korosti jatkuvia rodullisia ja sukupuoliuudistuksia suurissa kielimalleissa, mikä nosti kysymyksiä oikeudenmukaisuudesta ja sosiaalisista vaikutuksista.
Osallistujat eettisen AI:n kentällä ovat monimuotoisia. Niihin kuuluu teknologiayrityksiä, hallituksia, kansalaisjärjestöjä, akateemisia tutkijoita ja loppukäyttäjiä. Teknologiagurut, kuten Google, Microsoft ja OpenAI, ovat perustaneet sisäisiä eettisiä lautakuntia ja julkaisseet AI-periaatteita, mutta kriitikot väittävät, että itsevalvonta ei ole riittävää. Hallitukset reagoivat: Euroopan unionin AI-laki, joka sovittiin alustavasti joulukuussa 2023, asettaa globaalin ennakkotapauksen luokitellessa AI-järjestelmät riskin mukaisesti ja asettaa tiukkoja vaatimuksia korkean riskin sovelluksille.
Reaaliaikaiset tapaukset korostavat vetoamista. Vuonna 2023 Yhdistyneen kuningaskunnan kansallinen terveyspalvelu keskeytti AI-pohjaisen triage-työkalun käyttöönoton huolta herättäneiden rodullisten ennakkoluulojen vuoksi potilastuloksissa (BMJ). Yhdysvalloissa AI:n käyttö rekrytoinnissa ja luotonmyöntämisessä on johtanut sääntelytarkastuksiin ja oikeusjuttuihin syrjivien lopputulosten vuoksi (FTC).
Globaali hallinta on yhä pirstaloitunutta. Vaikka EU johtaa sitovalla sääntelyllä, Yhdysvallat on julkaissut vapaaehtoisia ohjeita, kuten AI:n perusoikeudet. Yhdistyneet kansakunnat on kutsunut globaalia AI-valvojaa, ja G7:n Hiroshima AI -prosessi pyrkii harmonisoimaan standardeja. Kuitenkin geopoliittinen kilpailu ja erilaiset kulttuuriset arvot vaikeuttavat konsensusta.
- Haasteet: Ennakkoluulo, läpinäkyvyys, vastuullisuus, yksityisyys ja väärinkäytöt.
- Osallistujat: Teknologiayritykset, hallitukset, kansalaisjärjestöt, akatemia ja käyttäjät.
- Tapaukset: NHS-triage-työkalun ennakkoluulo, AI rekrytoinnissa/lainassa oikeusjuttuja.
- Hallinta: EU:n AI-laki, Yhdysvaltojen ohjeet, YK- ja G7-aloitteet.
Tulevaisuudessa eettisen AI:n polku vaatii voimakkaita, toimeenpannavissa olevia standardeja, monimuotoista yhteistyötä eri osapuolten kesken ja jatkuvaa valvontaa varmistaakseen, että innovaatiot vastaavat yhteiskunnallisia arvoja ja ihmisoikeuksia.
Esteet, riskit ja strategiset mahdollisuudet eettisessä AI:ssa
Eettisen AI:n kehittäminen kohtaa monimutkaista esteiden, riskien ja mahdollisuuksien kenttää, johon vaikuttavat erilaiset osallistujat ja kehittyvät globaalit hallintakehykset. Koska tekoälyjärjestelmät yleistyvät, niiden eettisen käyttöönoton varmistaminen on sekä tekninen että yhteiskunnallinen välttämättömyys.
- Haasteet ja esteet: Keskeisiä haasteita ovat algoritminen ennakkoluulo, läpinäkyvyyden puute ja riittämätön sääntelyvalvonta. AI-järjestelmät voivat tahattomasti vahvistaa syrjintää, jos ne on koulutettu ennakkoluuloisilla tiedoilla, kuten korkeaprofiilinen kasvojentunnistusvirheiden (lähde: The New York Times) tapaukset. Lisäksi monien AI-mallien ”mustaksi laatikoksi” jääminen vaikeuttaa vastuullisuutta ja julkista luottamusta.
- Osallistujat: Eettisen AI:n ekosysteemi sisältää teknologiayrityksiä, hallituksia, kansalaisjärjestöjä, akatemiaa ja loppukäyttäjiä. Teknologiagurut, kuten Google ja Microsoft, ovat perustaneet omat AI-etiikka-neuvostonsa, kun taas hallitukset säätävät yhä enemmän AI-spesifisiä sääntöjä (lähde: World Economic Forum). Kansalaisjärjestöt nostavat esiin syrjityt ryhmät ja läpinäkyvyyden, varmistaen, että monimuotoiset näkökulmat otetaan huomioon.
- Huomionarvoiset tapaukset: Reaaliaikaiset tapahtumat korostavat eettisen AI:n riskejä. Esimerkiksi COMPAS-algoritmia, jota on käytetty Yhdysvaltain tuomioistuimissa, on löydetty rodullista ennakkoluuloa toistuvuusennustuksessa (ProPublica). Toisessa tapauksessa Amazon hylkäsi AI-rekrytointityökalun, joka syrji naisia (Reuters).
- Globaali hallinta: Kansainväliset ponnistelut AI:n eettisten hallintojen saavuttamiseksi ovat voimistumassa. Euroopan unionin AI-laki, jonka odotetaan tulevan voimaan vuonna 2024, asettaa ennakkotapauksen riskipohjaiseen sääntelyyn (European Commission). UNESCO:n suositus tekoälyn eettisyydestä, joka on hyväksytty 193 maassa, tarjoaa globaalin eettisen viitekehyksen (UNESCO).
- Poliittiset mahdollisuudet: Organisaatiot, jotka proaktiivisesti käsittelevät eettisiä riskejä, voivat saavuttaa kilpailuetua, edistää innovaatioita ja rakentaa julkista luottamusta. Investoiminen selkaistavaan AI:hen, moniin tietoseteihin ja vahvoihin hallintarakenteisiin ovat keskeisiä strategioita. Yhteistyö eri sektoreilla ja rajojen ylityksellä on elintärkeä, jotta standardit harmonisoituvat ja varmistetaan vastuullinen AI-kehitys (McKinsey).
<p.Yhteenvetona todettakoon, että vaikka eettinen AI tuo mukanaan merkittäviä haasteita ja riskejä, se tarjoaa myös strategisia mahdollisuuksia osapuolille, jotka ovat sitoutuneet vastuulliseen innovointiin ja globaaliin yhteistyöhön.
Lähteet & Viitteet
- Eettinen AI: Haasteet, Osallistujat, Tapaukset ja Globaali Hallinta
- MarketsandMarkets
- Nature
- Brookings
- Microsoft
- AI-laki
- ProPublica
- NIST
- Euroopan unioni
- Google DeepMind
- AI:n perusoikeudet
- AI Ethics Lab
- Partnership on AI
- The New York Times
- Generatiivisen AI:n palveluiden hallinnointia koskevat väliaikaiset toimenpiteet
- Paikallinen laki 144
- BMJ
- FTC
- Euroopan komissio
- UNESCO
- McKinsey