GPT-5 ei kelpaa vielä vakavaan käyttöön - manipuloitavissa! 

 

GPT-5:n tietoturvahaavoittuvuudet paljastuivat nopeasti – asiantuntijat varoittavat yrityskäytön riskeistä

 

Vain vuorokausi julkaisun jälkeen GPT-5-malli murrettiin useilla edistyneillä hyökkäystekniikoilla.

Tapaukset osoittavat, että huipputeknologian AI-järjestelmät ovat yhä haavoittuvaisia monimutkaisille manipuloinnille, mikä herättää vakavia kysymyksiä yrityskäytön turvallisuudesta.

(Yhdessä Perplexity kanssa kokosimme seuraavan artikkelin) 


OpenAI julkaisi GPT-5:n 8. elokuuta 2025, mutta tietoturvatutkijat onnistuivat murtamaan sen vain 24 tunnin sisällä. Haavoittuvuudet paljastivat mallin suojausmekanismien heikkouksia ja kyseenalaistivat sen valmiuden yritysympäristöihin.

Kaksi kyberturvayhtiötä, NeuralTrust ja SPLX, demonstroi toisistaan riippumatta keinoja kiertää mallin sisäänrakennetut turvasuodattimet.


Echo Chamber ja obfuskaatio

– hienovaraiset hyökkäykset tehosivat

NeuralTrust hyödynsi omaa “Echo Chamber” -tekniikkaansa yhdistettynä tarinalliseen ohjaukseen. Tämä menetelmä myrkyttää keskustelukontekstia epäsuorilla viittauksilla ja usean vaiheen päättelyllä, välttäen suorat rikkomuspyynnöt mutta ohjaten mallia

silti politiikan vastaiseen lopputulokseen.

SPLX puolestaan käytti obfuskaatiohyökkäyksiä, kuten StringJoin Obfuscation Attack -menetelmää, jossa haitalliset pyynnöt naamioitiin merkit erottamalla ja esittämällä ne tekaistuina salaushaasteina. Tulosten mukaan GPT-5:n suojaustaso sellaisenaan on yrityskäytössä “lähes käyttökelvoton”.

Yritysvalmius murenemassa

SPLX:n vertailutestit osoittivat, että GPT-4o kestää paremmin vihamielistä testausta yritysympäristöissä, etenkin lisäsuojauksilla vahvistettuna. Tämä viittaa siihen, että GPT-5:n parantuneet kyvykkyydet eivät ole kulkeneet käsi kädessä tietoturvan paranemisen kanssa – päinvastoin, joissakin kohdin suojaus voi olla heikentynyt.

Tilannetta pahentavat uudet "AgentFlayer" nollaklikkaushyökkäykset, joiden avulla voidaan varastaa arkaluontoista dataa esimerkiksi Google Drivesta ja SharePointista ilman käyttäjän toimia. Haitalliset komennot piilotetaan näennäisesti harmittomiin dokumentteihin, jotka AI-agentti suorittaa niitä avatessaan.


Monikerroksinen tietoturva – mutta ei vielä tarpeeksi

NeuralTrustin mukaan yksi keskeinen ongelma on, että nykyiset turvasuodattimet arvioivat syötteitä erillisinä eivätkä ymmärrä koko monivuorisen vuorovaikutuksen kontekstia. Tämä antaa monivaiheisille hyökkäyksille mahdollisuuden luikerrella suodattimien ohi.

Vaikka Microsoftin AI Red Team arvioi GPT-5:n omaavan “yhden vahvimmista turvallisuusprofiileista” heidän testimittareillaan, riippumattomat testit osoittivat, että laboratoriotulokset eivät vastaa reaalimaailman uhkakuvaa.


 Keskeiset havainnot

Ei valmis yrityskäyttöön: GPT-5:n suojaus murrettiin useilla eri menetelmillä heti julkaisun jälkeen.

Hienovaraiset hyökkäystekniikat toimivat: Toistuvat epäsuorat vihjeet ja obfuskaatio kiersivät suojausfiltterit.

GPT-4o edelleen turvallisempi: Vanhempi malli on kestävämpi, etenkin kovennettujen turvakerrosten kanssa.

Uudet nollaklikkausuhat: AgentFlayer-hyökkäykset voivat varastaa dataa käyttäjän tiemättä. 

Turvasuunnittelu kaipaa uudistusta: Pelkkä “päättelyn” tehostaminen ei suojaa monivaiheisilta hyökkäyksiltä.

 

Echo Chamber -hyökkäys = Monivaiheinen keskustelukontekstin manipulointi epäsuorilla vihjeillä.

Obfuskaatiohyökkäys. = Pyynnön sisällön naamiointi, esim. hajottamalla sanat merkeiksi tavuviivojen avulla.   

AgentFlayer = Nollaklikkaushyökkäys, jossa haitallinen komento piilotetaan dokumenttiin. 

Red Team  = Tietoturvatiimi, joka simuloi todellisia hyökkäyksiä.                           

Prompt Injection = AI-kehotteen manipulointi haitallisen lopputuloksen aikaansaamiseksi. 

 

Lähteet :

[1] Red Teams Jailbreak GPT-5 With Ease, Warn It's 'Nearly Unusable ... https://www.securityweek.com/red-teams-breach-gpt-5-with-ease-warn-its-nearly-unusable-for-enterprise/

[2] GPT-5 Under Fire: Red Teaming OpenAI's Latest Model ... - SplxAI https://splx.ai/blog/gpt-5-red-teaming-results

[3] AgentFlayer 0-click exploit abuses ChatGPT Connectors to Steal 3rd ... https://hackread.com/agentflayer-0-click-exploit-chatgpt-connectors-steal-data/

[4] Agent-based AI systems face growing threats from zero-click and ... https://the-decoder.com/agent-based-ai-systems-face-growing-threats-from-zero-click-and-one-click-exploits/

    

Kampanjatarjous

Älä missaa mahdollisuutta säästää samalla kun nautit rakastamastasi laadusta ja palvelusta.

Ryhdy UUSI HANKO I NYA HANGÖ - verkkolehden ennakkotilaajaksi. Ennakko - ja tuki tilaukset täältä