Otsikko on kärjistävä, mutta valaisee pointin; henkilökohtaiseen dataan ja rajapintoihin yhdistetty kielimalleihin perustuva Siri on tietoturvan näkökulmasta Tosi Huono Idea.
Apple ilmoitti hiljattain lykkäävänsä Siriin luvattuja henkilökohtaista dataa hyödyntäviä ominaisuuksia “ainakin vuodella”. Omppumaailman gran old journalisti-man John Gruber veti tästä johtopäätöksiä, että Apple on paitsi täysin kujalla AI-kehityksestä, myös liannut maineensa lupaamalla näkyvästi (mm. TV-mainosten kera) ominaisuuksia joita eivät voi kenties koskaan toimittaa.
Dilemma on kieltämättä aika suuri. Toisaalta nykyinen Siri on huonompi kuin mitä pystyisin itse toteuttamaan IF/ELSE lauseilla yhdessä iltapäivässä, toisaalta kehoteinjektio ei ole vain riski vaan ominaisuus nykyisissä kielimalleissa. Gruber ja Simon Willison pallottelivat tästä muutama päivä sitten. Pääpointti on se, että älypuhelimen henkilökohtaisiin tietoihin (salasanat, pankki- ym. yhteydet, jne.) yhdistetty kielimalli ei saa olla “lähes varmasti” turvallinen, sen täytyy olla pomminvarma. Ja nykyisiä kielimalleja hyödyntävistä järjestelmistä ei ole mahdollista tehdä samaan tapaan deterministisesti turvallisia kuin perinteisistä tietojärjestelmistä. Ilmaisen asian toisin: me tiedämme, että nykyisillä kielimalleja hyödyntävillä teknologioilla ei ole mahdollista rakentaa niin turvallista järjestelmää kuin mitä esimerkiksi tiivis Siri-integraatio vaatisi. Apple siis lupasi kenties jotain täysin tuulesta temmattua sen sijaan että olisi onnistunut kehittämään jotain uutta ja mullistavaa.
Elokuussa järjestetyn Black Hat tietoturvakonferenssin Living off Microsoft Copilot-puhe demonstroi karulla tavalla miten villi länsi tämänhetkiset kielimalliavusteet ovat tietoturvan näkökulmasta. “HEi, lisätään tähän AI!” kuulostaa erityisesti markkinointiosaston mielestä hyvältä idealta, eivätkä mahdolliset riskit aina ole selkeästi näkyvillä. Mutta järjestelmiä syvästi tuntevat pahikset osaavat uida sisään pienistäkin rei’istä, koska edelleen, kehoteinjektio ei ole riski vaan ominaisuus.
Olen varovaisen optimistinen, että näihin riskeihin löydetään ajan mittaan aitoja ja pitäviä ratkaisuja, mutta se vaatii uusia aitoja innovaatioita. Tämänkin blogin lukijoille suosittelisin kuitenkin lämpimästi, että tuttuja ja läheisiä kannattaa yrittää valistaa kielimalleihin liittyvistä riskeistä. Mitä enemmän AI-hype valuu jokapäiväiseen arkeen ja syvemmälle ihmisten henkilökohtaiseen dataan, sitä suuremmalla todennäköisyydellä jossain kohtaa käy se ensimmäinen iso haveri joka vasta muuttaa sekä kehittäjien, päättäjien että kuluttajien asenteita fiksummaksi.
Ja mitä Siriin tulee, sen saisi tuhat kertaa nykyistä paremmaksi ilman mitään lisädataa yksinkertaisella ChatGPT-integraatiolla niin että se edes ymmärtäisi mitä pyydän sitä tekemään!