![퀘이사존](https://img2.quasarzone.com/editor/2024/05/29/0892662121d9d10dd903a9627e4da426.jpg)
수십억 달러 규모의 스타트업 OpenAI는 롤러코스터와 같은 사건 전개에 익숙합니다. ChatGPT의 배후에 있는 회사가 인공지능 확산과 그로 인한 영향에 대해 더 이상 신중하지 않다고 느낀 일부 구성원들이 떠난 것이 한 예입니다. 이는 OpenAI가 향후 더 책임 있는 접근 방식을 채택하기 위해 '안전 및 보안 위원회'를 구성한다고 발표한 이유 중 하나입니다.
새로운 안전 및 보안 위원회는 CEO 샘 알트만을 포함한 OpenAI 구성원들로 이루어져 있습니다.
회사 발표 게시물에 따르면, 브렛 테일러, 애덤 디앤젤로, 니콜 셀리그먼 등 여러 OpenAI 이사회 구성원들이 위원회에 포함되어 있으며, 향후 3개월 동안 스타트업의 안전 프로세스를 평가할 책임을 맡게 됩니다. 팀 구성원들은 이후 발견 사항을 전체 OpenAI 이사회에 공유하여 검토를 받게 됩니다. 안전과 보안을 준수하는 모든 채택된 제안은 앞으로 공개될 것입니다.
"OpenAI는 최근 차세대 모델의 훈련을 시작했으며, 이를 통해 AGI로 나아가는 여정에서 다음 단계의 능력을 갖출 것으로 기대합니다. 우리는 능력과 안전성 면에서 업계를 선도하는 모델을 개발하고 출시하는 것에 자부심을 느끼지만, 이 중요한 순간에 활발한 논의를 환영합니다.
안전 및 보안 위원회의 첫 번째 임무는 향후 90일 동안 OpenAI의 프로세스와 안전장치를 평가하고 추가 개발하는 것입니다. 90일이 끝나면 안전 및 보안 위원회는 전체 이사회에 권장 사항을 공유할 것입니다. 전체 이사회의 검토 후, OpenAI는 채택된 권장 사항에 대해 안전 및 보안에 일관되게 공개 업데이트를 제공할 것입니다."
OpenAI는 짧은 시간 내에 특히 안전 부문에서 여러 퇴사자를 목격했습니다. 그들이 사임한 이유는 인공지능의 능력이 점점 더 커지는 상황에서 회사가 책임감 있게 행동할 것이라는 신뢰를 잃었기 때문입니다. 주목할 만한 인물로는 OpenAI의 공동 창립자 일리야 서츠키버가 있습니다. 그는 주로 알트만의 AI 제품 출시 집착 때문에 올해 5월에 떠났습니다.
그러나 OpenAI는 AI 규제를 지지해왔으며 내부 로비스트를 고용하기도 했습니다. 또한, 미국 국토안보부는 샘 알트만이 새로 구성된 인공지능 안전 및 보안 위원회의 일원으로 활동할 것이라고 발표했습니다. 이는 회사의 비전에 대해 염려하는 사람들의 신뢰를 높일 수 있을 것입니다. 이 새로운 '안전 및 보안 위원회'가 얼마나 진지하게 임무를 수행할지는 90일 후에 알 수 있을 것입니다.
※ 퀘이사존 공식 기사가 아닌 해외 뉴스/기사를 번역한 것으로, 퀘이사존 견해와 주관은 포함되어 있지 않습니다. |