Tällä hetkellä Anthropicin, OpenAI:n ja Googlen LLM:t tuottavat sinänsä varsin luotettavaa koodia. Bugeja tulee jonkin verran etenkin uusia ominaisuuksia lisätessä, kun LLM:llä ei yleensä ole aukotonta käsitystä koko projektista, mutta väittäisin, että jälki on parempaa kuin suurimmalla osalla ammattikoodareista.
Tietoturvan osalta riskit ovat pitkälti samat kuin itse koodatuissa projekteissa. Ehkäpä vaarallisin on netistä ladattaviin kirjastoihin ujutettu tahallinen haittakoodi, joka voi hyvinkin osua omalle kohdalle mm. JavaScript, Python ja Rust-projekteissa, joissa käytetään laajasti peruskirjastojen ulkopuolista koodia, jossa on edelleen riippuvuuksia muihin kolmannen osapuolen paketteihin. Palvelinohjelmissa ja nettisovelluksissa on lisäksi perinteiset ongelmat rajapintojen turvaamisessa ja syötteen käsittelyssä. Näitäkin voi toisaalta analysoida tekoälyn avulla.