Sebbene la comunità tecnologica sia ancora divisa sul potenziale degli strumenti di IA generativa, è opinione comune che il loro impatto sul settore sia paragonabile all’adozione della tecnologia cloud.
Gli ingegneri del software sfruttano l’intelligenza artificiale generativa per esplorare le librerie, creare nuovo codice e migliorare il processo di sviluppo, mentre i professionisti della sicurezza delle applicazioni la utilizzano per l’analisi del codice e i test di sicurezza.
Una recente indagine condotta da Sonatype negli Stati Uniti fa luce su come l’IA generativa stia influenzando gli ingegneri del software e il ciclo di vita dello sviluppo del software.
L’indagine ha coinvolto 400 leader DevOps e 400 SecOps, rivelando un’adozione massiccia dell’IA generativa. Tuttavia, alcuni intervistati hanno espresso preoccupazioni sui rischi per la sicurezza e sulla potenziale perdita di posti di lavoro a causa dell’IA.
I leader DevOps e SecOps condividono le preoccupazioni per la sicurezza (52%) e la perdita del posto di lavoro (49%) come principali timori riguardo all’IA generativa. Queste preoccupazioni riflettono il dibattito in corso sul potenziale dell’IA di sostituire i ruoli tecnici.
Inoltre, una parte significativa (74%) degli intervistati si sente sotto pressione per l’adozione dell’IA generativa, con i responsabili DevOps che sentono questa pressione più intensamente delle loro controparti.
Entrambi i gruppi concordano sul fatto che i creatori dovrebbero detenere i diritti d’autore per i risultati generati dall’IA in assenza di leggi sul copyright (40%) e sono favorevoli a compensare gli sviluppatori (90%).
La maggior parte degli intervistati (97%) utilizza attualmente l’IA generativa nei propri flussi di lavoro in una certa misura, con l’84% che la utilizza regolarmente e il 41% che la utilizza quotidianamente.
Gli strumenti di IA generativa stanno guadagnando popolarità, con ingegneri e team di sicurezza che li utilizzano ampiamente per vari compiti.
ChatGPT è lo strumento preferito dall’86% degli intervistati, seguito da GitHub Copilot con il 70%.
I leader DevOps e SecOps hanno pareri differenti verso l’IA generativa.
Mentre il 61% dei leader DevOps ritiene che sia troppo pubblicizzata, il 90% dei leader SecOps pensa che il suo impatto sul settore sarà simile a quello della tecnologia cloud.
I responsabili SecOps segnalano anche un risparmio di tempo più significativo (il 57% risparmia almeno 6 ore a settimana rispetto al 47% dei DevOps) e un tasso più elevato di implementazione completa (45% contro 31%).
Non sorprende che i problemi di sicurezza siano prevalenti in entrambi i gruppi. Il 77% dei responsabili DevOps e il 71% dei responsabili SecOps si sentono spinti a utilizzare l’IA generativa nonostante le preoccupazioni sulla sicurezza.
I leader DevOps sono più pessimisti sul fatto che la tecnologia possa portare a un aumento delle vulnerabilità di sicurezza (77%), in particolare nel codice open-source (58%). Prevedono inoltre che la tecnologia renderà più complesso il rilevamento delle minacce (55%).
“L’era dell’intelligenza artificiale è come i primi giorni dell’open source, come se stessimo costruendo l’aereo mentre lo stiamo pilotando in termini di sicurezza, politiche e normative”, commenta Brian Fox, cofondatore e CTO di Sonatype.
“L’adozione è stata generalizzata e il ciclo di sviluppo del software non fa eccezione. Se da un lato i vantaggi in termini di produttività sono evidenti, dall’altro i nostri dati mettono in luce una realtà preoccupante, che va di pari passo: le minacce alla sicurezza poste da questa tecnologia ancora in fase di sviluppo”.
“Ogni ciclo di innovazione comporta nuovi rischi ed è fondamentale che gli sviluppatori e i responsabili della sicurezza delle applicazioni guardino all’adozione dell’IA con un occhio di riguardo per la sicurezza”.
Le organizzazioni stanno affrontando le preoccupazioni attraverso politiche generative sull’IA e attendono con ansia una regolamentazione in uno spazio che manca di una governance completa.
In particolare, il 71% degli intervistati riferisce che le proprie organizzazioni hanno stabilito politiche per l’uso dell’IA generativa, mentre il 20% è in procinto di svilupparle.
In termini di regolamentazione, il 15% dei leader DevOps ritiene che il governo debba regolamentare, mentre il 6% dei leader SecOps condivide questa opinione. La maggioranza (78% dei SecOps e 59% dei DevOps) ritiene che sia il governo che le singole aziende debbano svolgere un ruolo nella regolamentazione.
Gli intervistati concordano sul fatto che gli sviluppatori dovrebbero essere compensati (90%) per il loro codice se viene utilizzato in artefatti open-source nei LLM. Inoltre, il 67% ritiene che l’organizzazione che utilizza il codice nel proprio software debba pagare gli sviluppatori.
Con la continua evoluzione dell’IA generativa, sarà essenziale trovare un equilibrio tra i suoi potenziali benefici e la necessità di un’implementazione responsabile ed etica.
La copia completa del rapporto di Sonatype è disponibile qui.