OpenAI predstavil odprtokodne modele za večjo varnost umetne inteligence
tehnologija

OpenAI predstavil odprtokodne modele za večjo varnost umetne inteligence

OpenAI je predstavil raziskovalni predogled gpt-oss-safeguard, nabor odprtokodnih modelov za razvrščanje varnosti umetne inteligence. Modeli so na voljo v dveh velikostih, 120B in 20B parametrov, in so licencirani pod Apache 2.0 licenco. Ti modeli podpirajo prilagojene varnostne politike in so namenjeni razvijalcem za izgradnjo varnejše umetne inteligence.

Izvorni članki

OpenAI’s gpt-oss-safeguard enables developers t...
helpnetsecurity.com | 29. 10. 2025 16:02
OpenAI unveils new open-weight models for AI safety
neowin.net | 29. 10. 2025 14:24
OpenAI releases gpt-oss-safeguard, its open-wei...
techmeme.com | 29. 10. 2025 12:20

Podobni članki

OpenAI objavil prve odprtokodne modele po GPT-2
tehnologija
OpenAI objavil prve odprtokodne modele po GPT-2
3 posodobitev 6. avg 6:29

OpenAI je lansiral odprtokodna modela gpt-oss-120b in gpt-oss-20b, ki sta optimizirana za uporabo na prenosnikih in drugih napravah potrošnikov. Izid predstavlja izziv kitajski prevladi na področju umetne inteligence. NVIDIA sodeluje z OpenAI pri izboljšanju zmogljivosti teh modelov. Modeli omogočajo razvijalcem, navdušencem, podjetjem in vladam dostop do vrhunskega razvoja umetne inteligence.

OpenAI predstavil nove modele z odprtimi utežmi, a ne povsem odprtokodnih
tehnologija
OpenAI predstavil nove modele z odprtimi utežmi, a ne povsem odprtokodnih

6. avg 6:21

OpenAI je predstavil nove modele umetne inteligence z odprtimi utežmi, ki so licencirani pod Apache 2.0 licenco. Čeprav to pomeni večjo dostopnost, nekateri poudarjajo, da to še ne pomeni popolne odprtokodnosti. Modeli omogočajo večjo prilagodljivost in dostopnost, vendar se pojavljajo vprašanja o tem, kaj dejansko pomeni 'odprtost' v kontekstu OpenAI.

Predlagani nadzor klepetalnic v EU sproža zaskrbljenost glede zasebnosti in šifriranja
pravosodje tehnologija
Predlagani nadzor klepetalnic v EU sproža zaskrbljenost glede zasebnosti in šifriranja

14. okt 7:06

Predlagana uredba EU o nadzoru klepetalnic (CSAM) za boj proti spolni zlorabi otrok sproža zaskrbljenost glede zasebnosti in varnosti. Uredba zahteva, da digitalne platforme zaznavajo, prijavljajo in odstranjujejo nezakonito vsebino, kar bi lahko ogrozilo šifriranje in ustvarilo nove ranljivosti. Strokovnjaki opozarjajo, da bi prepoved anonimnih orodij, kot je Tor, spodbudila kriminal pod zemljo in normalizirala vladni nadzor nad internetom. V Afriki se soočajo s podobnimi izzivi, saj je zaščita zasebnosti prepletena z nacionalno varnostjo, kjer je šifriranje ključnega pomena za preprečevanje digitalnih groženj. Kritiki menijo, da se "vojna proti zlorabi otrok" pogosto uporablja za upravičevanje avtoritarnega poseganja.

GitHub, Concentric AI in Cloudflare izboljšujejo varnost in funkcionalnost platform s posodobitvami in integracijami
tehnologija obramba
GitHub, Concentric AI in Cloudflare izboljšujejo varnost in funkcionalnost platform s posodobitvami in integracijami
1 posodobitev 6. avg 4:40

Britansko Ministrstvo za obrambo je izbralo avstralsko podjetje za kibernetsko varnost, ki bo uvedlo rešitve za zaščito podatkov, ki jih poganja umetna inteligenca. Voditelji kibernetske varnosti se posvečajo varovanju infrastruktur umetne inteligence, pri čemer se pogosto pozablja na varnost pri uvajanju novih tehnologij. Sysdig je predstavil platformo za varnost v oblaku, ki jo poganja umetna inteligenca, za avtonomno popravljanje in razvrščanje tveganj. V avtomobilski industriji se kibernetska varnost obravnava kot del varnosti. Malezijska Maybank je sklenila petletno partnerstvo z Microsoftom v vrednosti milijarde ringgitov za pospešitev digitalne preobrazbe z umetno inteligenco.

Povečana varnost AI: Cloudflare uvaja orodja za zaščito in oceno zaupanja, strokovnjaki opozarjajo na varnostne izzive
posel tehnologija
Povečana varnost AI: Cloudflare uvaja orodja za zaščito in oceno zaupanja, strokovnjaki opozarjajo na varnostne izzive

26. avg 15:07

Podjetje Cloudflare je predstavilo nova orodja za ničelno zaupanje, namenjena varnejši uporabi umetne inteligence (AI) v podjetjih, vključno z orodji za spremljanje uporabe AI, zaščito pred 'Shadow AI' in varovanje občutljivih podatkov. Obenem so lansirali funkcijo Application Confidence Scores za ocenjevanje varnosti in zanesljivosti orodij AI tretjih oseb. Strokovnjaki medtem opozarjajo na naraščajoče tveganje 'Shadow AI' in poudarjajo pomen vzpostavitve varnih temeljev za eksperimentiranje z AI. Meg Anderson, strokovnjakinja za kibernetsko varnost, svetuje voditeljem, da se osredotočijo na odnose z dobavitelji, razvoj kadrov in nove grožnje, kot so deepfakes in ransomware-as-a-service. Cloud Security Alliance pa združuje vire za vzpostavitev zanesljivih zaščitnih ukrepov za AI.

Zico Kolter vodi varnostni panel OpenAI z močjo zaustavitve nevarnih izdaj umetne inteligence
tehnologija
Zico Kolter vodi varnostni panel OpenAI z močjo zaustavitve nevarnih izdaj umetne inteligence
1 posodobitev 2. nov 13:22

Profesor Zico Kolter z univerze Carnegie Mellon vodi štiričlanski panel pri OpenAI, ki ima pooblastila za zaustavitev izdaj novih sistemov umetne inteligence, če se ugotovi, da so nevarni. Njegova vloga velja za eno najpomembnejših v tehnološki industriji. Panel lahko zaustavi tehnologijo, ki bi jo lahko zlonamerne osebe uporabile za izdelavo orožja za množično uničevanje, ali klepetalnika, ki bi škodoval duševnemu zdravju ljudi.

Entitete in sentiment

Entiteta Sentiment
OpenAI Pozitivno
Apache 2.0 nevtralno

Zakaj je novica relevantna za Slovenijo

Razvoj varnejše umetne inteligence je pomemben tudi za Slovenijo, saj se tehnologija hitro razvija in vpliva na različne vidike življenja.