Tutkimus osoitti, että kirjallisten keinojen, kuten metaforien ja riimien, käyttö voi ohittaa suodattimet, jotka yleensä estävät haitallisen sisällön tekoälyä käyttävissä chat-ohjelmissa.
Sisältö
Äskettäin Italiassa tehty tutkimus herätti uusia huolenaiheita maailman laajimmin käytettyjen tekoälyjärjestelmien turvallisuusrajoituksista. Icaro Labin tutkijat havaitsivat, että keskustelumallit, kuten ChatGPT, Gemini ja Claude, voivat vastata pyyntöihin, jotka ne yleensä estävät, jos pyynnöt on muotoiltu runollisesti, vaikka sisältö koskisi aiheita, joita pidetään haitallisina, vaarallisina tai järjestelmän sisäisten sääntöjen mukaan kiellettyinä.
Saadut tiedot paljastavat merkittävän haavoittuvuuden tekoälyn hallintamekanismeissa ja asettavat kyseenalaiseksi näiden järjestelmien todellisen kyvyn tulkita ihmiskieltä kaikessa sen monimutkaisuudessa. Tutkimuksessa todettiin, että pelkkä muodon muutos – siirtyminen proosasta runouteen – riittää joissakin tapauksissa poistamaan turvallisuusesteet .
Filosofian tiedekunnan valmistunut Federico Pierucci osallistui Deutsche Welle (DW) -julkaisun tutkimukseen. Artikkelissa Pierucci selitti, että tiimi ei palkannut ammattikirjailijoita tai runoilijoita tekstien luomiseen. ”Teimme sen itse, käyttäen rajallisia kirjallisia taitojamme. Kuka tietää, jos olisimme olleet parempia runoilijoita, olisimmeko saaneet sataprosenttisen menestyksen”, hän sanoi.

Odottamaton haavoittuvuus turvallisuussuodattimissa.
Menettely oli suhteellisen yksinkertainen: tutkijat laativat kysymyksiä aiheista, jotka tekoälymallit yleensä hylkäisivät, jos ne olisi muotoiltu suoraan, ja kirjoittivat ne uudelleen runojen muodossa. Kun he syöttivät nämä kysymykset vuoropuheluun, he huomasivat, että useissa tapauksissa järjestelmät reagoivat edelleen sivuuttamalla tai tulkitsemalla väärin ohjelmoidut rajoitukset.
Tällainen käyttäytyminen paljasti haavoittuvuuden, jota ei ollut vielä selkeästi määritelty. Tekoälyn turvallisuussuodattimet on suunniteltu tunnistamaan aikomukset, avainsanat ja rakenteet, jotka ovat tyypillisiä jokapäiväisessä kielenkäytössä. Kuitenkin, kun käsitellään kirjallisia keinoja, kuten metaforia, riimejä tai symbolisia rakenteita, nämä samat suodattimet voivat osoittautua tehottomiksi.
Tutkijoiden tehtävänä on nyt paitsi korjata tämä tietty virhe, myös ymmärtää, miksi se syntyy ja missä määrin se voidaan toistaa muissa kieliversioissa. ”Testasimme yhden tyyppisiä variaatioita: runouden. Kysymys on, onko olemassa muita kirjallisia muotoja, kuten satuja”, Pierucci sanoi.

Ihmisen kielen ongelma on jatkuvasti tekoälyn edessä.
Tutkimus paljastaa laajemman ongelman: ihmisen kielen valtavan monimuotoisuuden ja luovuuden. ”Yleisesti ottaen ihmisen itsensä ilmaiseminen on hyvin monimuotoista ja luovaa. Tekstiä voidaan kirjoittaa uudelleen monin eri tavoin. Ja jotkut näistä tavoista voivat estää tekoälyn turvallisuustoimintojen aktivoitumisen”, tutkija lisäsi.
Tämä seikka on ratkaisevan tärkeä, kun tekoäly integroidaan yhä enemmän tärkeisiin aloihin, kuten koulutukseen, terveydenhuoltoon, turvallisuuteen ja liiketoimintapäätösten tekemiseen. Jos järjestelmät eivät kykene tulkitsemaan viestin suojausta oikein, ne voivat antaa epäasianmukaisia tai vaarallisia vastauksia.
Keskustelu ei rajoitu tekniseen alaan. Se nostaa esiin myös eettisiä kysymyksiä siitä, miten mallit kehitetään, mitä kieltä ne pääasiassa käyttävät ja mitä tapahtuu, kun ne kohtaavat kulttuurisia, kirjallisia tai luovia ilmaisuja, jotka poikkeavat yleisesti hyväksytyistä normeista.

Tekoäly, eriarvoisuus ja globaalit riskit
Icarus Lab -laboratorio avattiin aikana, jolloin tekoälyn käyttö on laajentunut nopeasti, erityisesti Latinalaisessa Amerikassa ja Karibian maissa. Tämä kasvu tapahtuu kuitenkin syvän rakenteellisen eriarvoisuuden taustalla, joka koskee tuloja, sukupuolten tasa-arvoa ja pääsyä tietoihin.
Yhdistyneiden Kansakuntien ja Yhdistyneiden Kansakuntien kehitysohjelman (UNDP) tuoreissa raporteissa varoitetaan, että monet tekoälyjärjestelmät on koulutettu puutteellisen tai puolueellisen tiedon perusteella, mikä voi johtaa syrjintään sosiaalipolitiikassa, työmarkkinoilla, luotonsaannissa ja yleisessä turvallisuudessa.
UNDP:n tutkimuksessa ”The Next Great Divide: Why AI Could Widen the Gap Between Countries” (Seuraava suuri kuilu: miksi tekoäly voi lisätä eroja maiden välillä) todetaan, että vaikka tekoäly voi potentiaalisesti parantaa tuottavuutta ja talouskasvua, nämä edut keskittyvät yleensä talouksiin, joissa on kehittynyt digitaalinen infrastruktuuri, pätevä inhimillinen pääoma ja edistykselliset teknologiset valmiudet.
Latinalaisen Amerikan kaltaisilla alueilla tämä dynamiikka voi pahentaa olemassa olevia eroja sekä maiden välillä että niiden sisällä.
