Tietoturva-aiheista tunnettu Bruce Schneier julkaisi hyvän kirjoituksen tekoälyn ja ihmisälyn virheiden erilaisuudesta. Tämä liippaa hyvin läheltä aihetta joka on itselleni rakas; tekoälyn tehokas käyttö vaatii perinpohjaista osaamista.
Tekoälyynkin voi soveltaa klassista veitsianalogiaa, mutta monet eivät selkeästi hahmota sitä, että kielimallit (ja muutkin koneoppimiseen liittyvät työkalut) ovat itse asiassa hyvin kompleksisia työkaluja joiden syvä osaaminen vaatii asiantuntijatason perehtymistä ja kokemusta. Hakukoneiden tehokäyttäjät ymmärtävät hyvin, että satunnaisen ajatuksen syöttäminen hakukenttään harvoin tuottaa odotettuja tuloksia. Kielimallit ovat paljon hakukoneita monimutkaisempia, ja mikä pahinta, edes niiden kehittäjät ja alan tutkijat eivät täysin ymmärrä kaikkea niiden toimintaa.
Tekoälyjärjestelmien (ei pelkästään kielimallipalveluiden) tekemät virheet ovat kompastuttaneet käyttäjiä jo vuosikausia. Kuuluisasti esimerkiksi yhdysvaltalainen asianajaja sai isot sakot siteerattuaan ChatGPT:n täysin ilmasta keksittyjä ennakkotuomioita oikeudessa, ja Kalifornialainen autokauppa joutui vaikeuksiin kun hätiköidysti toteutettu chat-tekoäly juksattiin myymään uusia autoja yhdellä dollarilla.
Tekoälyn haavoittuvuuksia on mahdollisuus ennakoida (vaikka esimerkiksi kehoteinjektiota ei voi kiertää), mutta sen turvallinen ja hyödyllinen käyttö erityisesti työelämässä vaatii syvää asiantuntemusta.