Experții din domeniul CBRN (chimic, biologic, radiologic, nuclear) subliniază că, odată cu avansarea inteligenței artificiale, crește semnificativ și riscul de utilizare abuzivă, în special pentru crearea de arme devastatoare. În California, a fost deja propus un proiect de lege (SB 1047), care ar putea obliga companiile să adopte măsuri de siguranță pentru a preveni astfel de scenarii.
Cu toate acestea, OpenAI insistă că a luat măsuri pentru a preveni utilizarea necorespunzătoare a noului model. Directorul tehnologic al companiei a declarat că modelul a fost testat de specialiști din diverse domenii științifice, care au concluzionat că riscurile nu depășesc ceea ce este deja posibil cu tehnologia existentă.
Modelul o1 este conceput pentru a rezolva probleme complexe în logică, IT și matematică, deși necesită un timp mai lung de procesare a răspunsurilor. OpenAI a anunțat că va fi disponibil la scară largă pentru abonații ChatGPT săptămâna viitoare, însă lansarea ridică îngrijorări majore legate de siguranță și reglementare în domeniul AI.
