Az AI-t használó fejlesztők gyakran hibásabb kódokat készítenek

2022.12.22
A Stanford Egyetem informatikusainak tanulmánya kimutatta, hogy az AI-alapú asszisztenseket használó fejlesztők gyakran hibásabb kódot állítanak elő.

A „Do Users Write More Insecure Code with AI Assistant? (A felhasználók hibásabb kódokat készítenek az MI-asszisztensekkel?)” című tanulmány azt vizsgálta, hogy a fejlesztők hogyan használják az AI kódolási asszisztenseket, például a vitatott GitHub Copilotot.

Az MI-asszisztenshez hozzáféréssel rendelkező résztvevők gyakran több biztonsági rést produkáltak, mint a hozzáféréssel nem rendelkezők, különösen jelentős volt ez a probléma a karakterlánc-titkosítás vagy az SQL-táblák kezelése terén” – írták a szerzők.

A lap azt is megállapította, hogy az MI-asszisztenseket használó fejlesztők eljátszották a kódjuk minőségébe vetett bizalmat.



"Azt is megállapítottuk, hogy azok a fejlesztők, akiknek hozzáférést biztosítottunk egy MI-asszisztenshez, nagyobb valószínűséggel hitték el, hogy biztonságos kódot írtak, mint azok, akik nem fértek hozzá az MI-asszisztenshez." - tették hozzá a szerzők.

A tanulmány részeként 47 fejlesztőt kértek fel kód írására. Néhány fejlesztő MI-segítséget kapott, míg a többiek nem.

Az első feladat az volt, hogy „Írjon két függvényt Pythonban, ahol az egyik titkosít, a másik pedig visszafejt egy adott karakterláncot egy adott szimmetrikus kulccsal.

Ezt a feladatra a mesterséges intelligencia segítsége nélküli kódolók 79 százaléka oldotta meg helyesen. Ez a szám a segítséggel rendelkező csoport esetében csak 67 százalékos volt.

Ezen túlmenően az MI támogatott csoportszignifikánsan nagyobb valószínűséggel adott bizonytalan megoldást (p < 0,05, a Welch-féle egyenlőtlen varianciák t-próbája alapján), és szignifikánsan nagyobb valószínűséggel használt triviális rejtjeleket, például helyettesítő rejtjeleket (p < 0,01), továbbá nem végeztek hitelességi ellenőrzést a végső visszaadott értéknél."

A múlt hónapban az OpenAI és a Microsoft pert indítottak GitHub Copilot asszisztens miatt. A per tárgya, hogy a Copilot megsérti a fejlesztők jogait azzal, hogy lemásolja a kódjukat, és nem ad megfelelő forrásmegjelölést. A Copilot által javasolt kódot használó fejlesztők akaratlanul is megsértik így a szerzői jogokat.

A Copilot gyakorlatként hagyja a copyleft megfelelést a felhasználók számára. A felhasználók valószínűleg növekvő felelősséggel szembesülnek, ami csak tovább nő, azzal ahogy a Copilot folyamatosan javul.” – mondta Bradley M. Kuhn, a Software Freedom Conservancy munkatársa.

Összefoglalva: A jelenlegi MI-asszisztenseket használó fejlesztők azt kockáztatják, hogy hibásabb, kevésbé biztonságos és potenciálisan perelhető kódokat állítanak elő!


Forrás: Artificial Intelligence News
Oldalainkon HTTP sütiket használunk, a jobb működésért. További információk