OpenAI restricționează accesul la noul său model de IA pentru securitatea cibernetică.

0

OpenAI limitează accesul la noul său model de IA dedicat securității cibernetice

OpenAI a anunțat recent că noul său model de inteligență artificială, special conceput pentru securitatea cibernetică, va fi disponibil doar pentru un număr restrâns de parteneri selectați. Această decizie reflectă o strategie similară adoptată de rivalul său, Anthropic, care a acționat astfel ca reacție la potențialele vulnerabilități identificate în sistemele de securitate. Noul model, cunoscut sub denumirea GPT-5.4-Cyber, a fost proiectat să ofere funcționalități extinse în domeniul securității cibernetice, fiind supus unor restricții mai puține comparativ cu versiunile anterioare.

Implementează cu prudență

OpenAI a subliniat că, având în vedere natura permisivă a acestui model, lansarea sa va începe cu o fază restrânsă, îndreptată spre furnizori de securitate, organizații și cercetători aprobați. Anunțul coincidea cu o creștere a îngrijorărilor legate de impactul pe care capabilitățile avansate ale inteligenței artificiale îl pot avea asupra atacurilor cibernetice, ceea ce a condus la discuții semnificative în rândul liderilor din sectorul financiar.

Atenția asupra vulnerabilităților

Recent, la o săptămână înainte de această declarație, Anthropic a decis să amâne lansarea celui mai recent model al său, Claude Mythos, rezervându-i utilizarea inițială doar pentru 40 de companii tehnologice de top printr-o inițiativă denumită Project Glasswing. Aceasă strategie reflectă o preocupare comună în industrie, tendința de a controla accesul la tehnologii care ar putea fi utilizate în mod periculos în contextul cibernetic.

Promovarea capacităților cibernetice

În acest context, OpenAI și-a prezentat noul model ca având capacități superioare de protecție împotriva atacurilor informatice. Potrivit declarațiilor companiei, modelul permite profesioniștilor din domeniul securității să efectueze analize asupra software-urilor, evaluând potențialul lor malefic, vulnerabilitățile și robustețea măsurilor de securitate existente. Deși OpenAI limitează utilizarea acestui model, acesta se adresează unui număr mai mare de utilizatori comparativ cu selecția strictă aleasă de Anthropic.

Perspectiva asupra securității și reglementărilor

OpenAI a afirmat că nu consideră că este pragmatic sau adecvat să decidă la nivel central cine ar trebui să aibă dreptul la acces la astfel de tehnologii esențiale pentru apărarea cibernetică. Aceste decizii reflectă o schimbare de paradigmă în percepția asupra riscurilor și beneficiilor aduse de inteligența artificială în sectorul securității cibernetice, un subiect deja intens discutat de experți și autorități din întreaga lume.