OpenAI遭駭!公司裝死不願通報 員工提建言疑遭報復性開除
(示意圖/達志/美聯社)
有外媒爆料指出,其實OpenAI曾於2023年遭到駭客入侵,但當時OpenAI高層認為駭客損害程度不高,所以並未依法向主管機關聯邦調查局(FBI)通報。但是面對到內部員工提出妨害的建言時,OpenAI卻反手將該名員工開除。
根據《紐約時報》報導指出,整起事件發生於2023年初,當時OpenAI公司內部的論壇遭到身分不明的駭客入侵成功。該名駭客雖然並未觸及到OpenAI內部的機密文件,但是還是竊取了論壇內的大部分討論內容。
而整起事件爆發後,OpenAI高層認為駭客所觸及的資料層級不高,再加上公司的網路安全基礎防護並未被攻破,所以並沒有依法向主管機關FBI通報此事件。
但這起事件還是引起OpenAI一名研究員阿申布倫納(Leopold Aschenbrenner)的注意,阿申布倫納向OpenAI董事會發送一份報告,內容中主要是在警告,目前公司沒有完全針對駭客或其他「國家級支持」的威脅行為的防範AI模型防護技術。
事後,阿申布倫納將這份文件的內容,在刪除技術與商業敏感內容後,便將其公開在網路上。但阿申布倫納此舉卻遭到OpenAI董事會的問責,最後在2024年4月被公司以洩密為由遭到開除。
但阿申布倫納對於自己遭到開除一事,阿申布倫納還是認為這就是一起「政治性報復」,因為他直接在報告中嚴重質疑OpenAI是否有能力抵禦來自中國的駭客。但OenAI則否認這一說法,強調阿申布倫納的解聘與駭客事件無關。
阿申布倫納也認為,目前OpenAI所建構的AGI,是個非常強大的技術,除了可以做很多事情外,也有足夠的能力去執行涉及國家安全的壞事。而駭客事件讓阿申布倫納敲響警鐘,認為現在多數的AI巨頭公司,尤其是在研究AGI領域的公司,都要去判別自己的公司防駭能力,要清楚知道是否能保護AGI的機密不被中國、中東獨裁者或是美國政府所掌握把空。