Scroll Top

Sonatype rivela le opinioni dei leader DevOps e SecOps sull'IA generativa

Sebbene la comunità tecnologica sia ancora divisa sul potenziale degli strumenti di IA generativa, è opinione comune che il loro impatto sul settore sia paragonabile all’adozione della tecnologia cloud.

Gli ingegneri del software sfruttano l’intelligenza artificiale generativa per esplorare le librerie, creare nuovo codice e migliorare il processo di sviluppo, mentre i professionisti della sicurezza delle applicazioni la utilizzano per l’analisi del codice e i test di sicurezza.

Una recente indagine condotta da Sonatype negli Stati Uniti fa luce su come l’IA generativa stia influenzando gli ingegneri del software e il ciclo di vita dello sviluppo del software.

L’indagine ha coinvolto 400 leader DevOps e 400 SecOps, rivelando un’adozione massiccia dell’IA generativa. Tuttavia, alcuni intervistati hanno espresso preoccupazioni sui rischi per la sicurezza e sulla potenziale perdita di posti di lavoro a causa dell’IA.

I leader DevOps e SecOps condividono le preoccupazioni per la sicurezza (52%) e la perdita del posto di lavoro (49%) come principali timori riguardo all’IA generativa. Queste preoccupazioni riflettono il dibattito in corso sul potenziale dell’IA di sostituire i ruoli tecnici.

Inoltre, una parte significativa (74%) degli intervistati si sente sotto pressione per l’adozione dell’IA generativa, con i responsabili DevOps che sentono questa pressione più intensamente delle loro controparti.

Entrambi i gruppi concordano sul fatto che i creatori dovrebbero detenere i diritti d’autore per i risultati generati dall’IA in assenza di leggi sul copyright (40%) e sono favorevoli a compensare gli sviluppatori (90%).

La maggior parte degli intervistati (97%) utilizza attualmente l’IA generativa nei propri flussi di lavoro in una certa misura, con l’84% che la utilizza regolarmente e il 41% che la utilizza quotidianamente.

Gli strumenti di IA generativa stanno guadagnando popolarità, con ingegneri e team di sicurezza che li utilizzano ampiamente per vari compiti.

ChatGPT è lo strumento preferito dall’86% degli intervistati, seguito da GitHub Copilot con il 70%.

I leader DevOps e SecOps hanno pareri differenti verso l’IA generativa.

Mentre il 61% dei leader DevOps ritiene che sia troppo pubblicizzata, il 90% dei leader SecOps pensa che il suo impatto sul settore sarà simile a quello della tecnologia cloud.

I responsabili SecOps segnalano anche un risparmio di tempo più significativo (il 57% risparmia almeno 6 ore a settimana rispetto al 47% dei DevOps) e un tasso più elevato di implementazione completa (45% contro 31%).

Non sorprende che i problemi di sicurezza siano prevalenti in entrambi i gruppi. Il 77% dei responsabili DevOps e il 71% dei responsabili SecOps si sentono spinti a utilizzare l’IA generativa nonostante le preoccupazioni sulla sicurezza.

I leader DevOps sono più pessimisti sul fatto che la tecnologia possa portare a un aumento delle vulnerabilità di sicurezza (77%), in particolare nel codice open-source (58%). Prevedono inoltre che la tecnologia renderà più complesso il rilevamento delle minacce (55%).

“L’era dell’intelligenza artificiale è come i primi giorni dell’open source, come se stessimo costruendo l’aereo mentre lo stiamo pilotando in termini di sicurezza, politiche e normative”, commenta Brian Fox, cofondatore e CTO di Sonatype.

“L’adozione è stata generalizzata e il ciclo di sviluppo del software non fa eccezione. Se da un lato i vantaggi in termini di produttività sono evidenti, dall’altro i nostri dati mettono in luce una realtà preoccupante, che va di pari passo: le minacce alla sicurezza poste da questa tecnologia ancora in fase di sviluppo”.

“Ogni ciclo di innovazione comporta nuovi rischi ed è fondamentale che gli sviluppatori e i responsabili della sicurezza delle applicazioni guardino all’adozione dell’IA con un occhio di riguardo per la sicurezza”.

Le organizzazioni stanno affrontando le preoccupazioni attraverso politiche generative sull’IA e attendono con ansia una regolamentazione in uno spazio che manca di una governance completa.

In particolare, il 71% degli intervistati riferisce che le proprie organizzazioni hanno stabilito politiche per l’uso dell’IA generativa, mentre il 20% è in procinto di svilupparle.

In termini di regolamentazione, il 15% dei leader DevOps ritiene che il governo debba regolamentare, mentre il 6% dei leader SecOps condivide questa opinione. La maggioranza (78% dei SecOps e 59% dei DevOps) ritiene che sia il governo che le singole aziende debbano svolgere un ruolo nella regolamentazione.

Gli intervistati concordano sul fatto che gli sviluppatori dovrebbero essere compensati (90%) per il loro codice se viene utilizzato in artefatti open-source nei LLM. Inoltre, il 67% ritiene che l’organizzazione che utilizza il codice nel proprio software debba pagare gli sviluppatori.

Con la continua evoluzione dell’IA generativa, sarà essenziale trovare un equilibrio tra i suoi potenziali benefici e la necessità di un’implementazione responsabile ed etica.

La copia completa del rapporto di Sonatype è disponibile qui.

Post Correlati