Tilbage til toppen
Søndag den 14. juli 2024
HjemKunstig intelligensSikkerheden af ​​OpenAI's produkter er i tvivl

Sikkerheden af ​​OpenAI's produkter er i tvivl


OpenAI ser ud til at skabe overskrifter hver dag, og denne gang er det for en dobbelt dosis sikkerhedsproblemer. Kendt for sine banebrydende fremskridt inden for kunstig intelligens, er OpenAI nu kommet i rampelyset på grund af ikke én, men to store sikkerhedsbrud.

Disse hændelser har rejst spørgsmål om virksomhedens datahåndtering og cybersikkerhedsprotokoller, hvilket ryster tilliden hos både brugere og brancheeksperter.

det til Mac er fuld af sikkerhedsfejl

Mac-appen til ChatGPT har været et populært værktøj for brugere, der ønsker at udnytte OpenAIs kraftfulde sprogmodel, GPT-4o, direkte fra deres stationære computere. I denne uge blev der dog afsløret en sikkerhedsbrist.

Pedro Jose Pereira Vietto, en Swift-udvikler, opdagede, at appen lagrede brugersamtaler i almindelig tekst lokalt på enheden. Det betyder, at enhver følsom information, der blev delt under disse samtaler, ikke blev beskyttet, hvilket gør den tilgængelig for andre apps eller potentiel malware.

Vieitos resultater blev hurtigt opfanget af de tekniske nyhedsmedier Læben, vækker bekymring blandt brugerne og får OpenAI til at handle hurtigt. Virksomheden udgav en opdatering indført kryptering til lokalt lagrede chatsimødegå det umiddelbare sikkerhedsproblem.

Fraværet af sandboxing, en sikkerhedspraksis, der isolerer applikationer for at forhindre sårbarheder i at påvirke andre dele af systemet, komplicerede problemet yderligere. Da ChatGPT-appen ikke er tilgængelig i Apple App Store, er dette det behøver ikke at overholde Apples krav til sandboxing.

Det faktum, at et sådant grundlæggende sikkerhedstilsyn fandt sted i første omgang, har rejst spørgsmål om OpenAI's interne sikkerhedspraksis og grundigheden af ​​dets applikationsudviklingsproces.

Αυτό το κενό επέτρεψε στην εφαρμογή να αποθηκεύει δεδομένα με ανασφάλεια, θέτοντας τους χρήστες σε πιθανούς κινδύνους.

Den hurtige løsning fra OpenAI har mindsket den umiddelbare trussel, men den har også fremhævet behovet for strammere sikkerhedsforanstaltninger i udviklingen og implementeringen af ​​AI-applikationer.

En hackers spillebog

Det andet sikkerhedsproblem, som OpenAI står over for, er med rod i en hændelse fra sidste forårmen dets virkninger mærkes selv i dag.

I begyndelsen af ​​sidste år, det lykkedes en hacker at bryde OpenAI's interne beskedsystemer, at få adgang til følsomme oplysninger om virksomhedens drift og kunstig intelligens-teknologier. Det Hackeren uploadede detaljerne om diskussionerne til et onlineforum, hvor medarbejderne talte om de nyeste OpenAI-teknologiermen det kom ikke ind i de systemer, hvor virksomheden huser og bygger sin AI, ifølge to personer, der er bekendt med hændelsen.

OpenAI-ledere afslørede hændelsen til medarbejdere under en Fuldstændig møde på virksomhedens kontorer i San Francisco i april 2023. Beslutningen blev dog truffet om ikke at offentliggøre bruddet, da ingen kunde- eller partneroplysninger blev stjålet, og ledere ikke så det som en national sikkerhedstrussel. De troede på det Hackeren var en privatperson uden bånd til nogen udenlandsk regeringdet gør de også δεν ενημέρωσε το FBI ή τις αρχές επιβολής .

Mac-appen ChatGPT viste sig tidligere at gemme brugersamtaler i almindelig tekst, hvilket kompromitterede sikkerheden (Billedkredit)

Denne beslutning førte til interne bekymringer om OpenAI's sikkerhedsposition. Nogle medarbejdere var bekymrede over dette Udenlandske modstandere som Kina kan potentielt udnytte lignende sårbarheder at stjæle kunstig intelligens-teknologi, der i sidste ende kan udgøre en trussel mod USA's nationale sikkerhed.

Leopold Aschenbrenner, if OpenAI Technical Program Managerargumenterede for det virksomheden tog ikke nok skridt til at forhindre sådanne trusler. Han sendte et notat til bestyrelsen, der redegjorde for sine bekymringer, men blev senere fyret, et skridt, han hævder, var politisk motiveret på grund af hans klager.

Hviskende bekymringer

ο internt brud og efterfølgende hændelseshåndtering har afsløret dybere sprækker i OpenAI med hensyn til sikkerhedspraksis og gennemsigtighed. Aschenbrenners fyring, som han hævder var et resultat af hans klage, har udløst debat om virksomhedens engagement i sikkerhed og hvordan man håndterer intern uenighed. Mens OpenAI fastholder, at hans suspension ikke var relateret til hans opsigelse, har situationen fremhævet spændinger i virksomheden.

Bruddet og dets eftervirkninger fremhævede også de potentielle geopolitiske risici forbundet med avancerede kunstig intelligens-teknologier. Frygten for, at AI-hemmeligheder kan blive stjålet af udenlandske modstandere som Kina, er ikke ubegrundet. Lignende bekymringer er blevet rejst i teknologiindustrien, især af Microsofts bestyrelsesformand Brad Smith, som har vidnet om kinesiske hackere, der udnytter teknologisystemer til at angribe føderale netværk.

På trods af disse bekymringer forhindrer føderale og statslige love virksomheder som OpenAI i at diskriminere på grundlag af etnicitet. Eksperter hævder, at blokering af udenlandsk talent kan hindre udviklingen af ​​kunstig intelligens i USA, OpenAI's sikkerhedschef Matt Knight understregede behovet for at balancere disse risici, samtidig med at man udnytter verdens bedste talent til at fremme AI-teknologier.

OpenAI sikkerhedsfejl
Tilbage i 2023 brød en hacker OpenAI's interne beskedsystemer sidste forår og fik adgang til følsomme oplysninger (Billedkredit)

Hvad er OpenAIs magtspil?

Som reaktion på disse hændelser, OpenAI har taget skridt til at styrke sine sikkerhedsforanstaltninger. Virksomheden har etableret en Sikkerhedsudvalget at vurdere og afbøde de risici, der er forbundet med fremtidige teknologier. Dette udvalg omfatter værdifulde elementer som f.eks Paul Nakasoneen tidligere hærgeneral, der ledede National Security Agency og Cyberspace Administration, og blev udpeget til OpenAI's bestyrelse.

OpenAI's engagement i sikkerhed er yderligere demonstreret af dets fortsatte investering i at beskytte sine teknologier. Knight understregede, at disse bestræbelser begyndte år før introduktionen af ​​ChatGPT og fortsætter med at udvikle sig, efterhånden som virksomheden forsøger at forstå og håndtere nye risici. På trods af disse forholdsregler har de seneste hændelser vist, at rejsen mod robust sikkerhed er i gang og kræver konstant årvågenhed.


Udvalgt billedkredit: Kim Menich/Skru af





VIA: DataConomy.com

Marizas Dimitris
Marizas Dimitrishttps://www.techwar.gr
Dimitris er en dedikeret fan af Samsung-mobiltelefoner og har udviklet et særligt forhold til virksomhedens produkter og værdsætter det design, ydeevne og innovation, de tilbyder. At skrive og læse tekniske nyheder fra hele verden.
RELATEREDE ARTIKLER

EFTERLAD ET SVAR

indtast din kommentar!
indtast venligst dit navn her

Mest Populære

Sidste artikler