인공 지능(AI) 프로그램이 주요 글로벌 산업에 빠르게 침투하고 있지만 삼성은 챗GPT와 유사한 AI 프로그램에 대해 보안 등의 이유로 사용을 제한할 것으로 전해졌다.
5월 2일 블룸버그 보도에 따르면 삼성 직원들 사이에서 챗GPT와 같은 생성 AI 프로그램의 사용을 금지할 것이라고 한다.
이러한 삼성의 정책은 삼성 직원이 플랫폼에 “민감한 코드”를 업로드한 후 나온 것이다.
보안 우려와 일시적 제한
삼성은 AI 플랫폼에 대한 관심이 커지면서 보안 위험도 커진다고 전했다.
AI 플랫폼으로 전송된 내부 데이터에 대한 우려와 외부 서버에 저장될 가능성에 대한 우려를 강조했다.
삼성은 직원의 생산성과 효율성을 높이기 위해 제너레이티브 AI를 안전하게 사용할 수 있는 환경을 조성하기 위한 보안 조치를 검토하고 있다고 밝혔다.
그러나 해당 조치가 마련될 때까지 삼성은 일시적으로 제너레이티브 AI 사용을 제한한다고 발표했다.
이에는 삼성 소유의 컴퓨터, 태블릿, 휴대폰 및 내부 네트워크에서 생성 AI 도구 사용 금지가 포함된다.
또한 개인 기기에서 이러한 도구를 사용하는 모든 직원은 회사 정보를 제출하지 말 것을 요청했다.
그렇지 않으면 최대 해고를 포함한 징계 조치를 받을 수 있다.
다른 기업들의 대응
삼성뿐만 아니라 다른 주요 기업들도 신흥 기술에 대한 우려를 제기하고 있다.
올해 초부터 JPMorgan, Bank of America, Goldman Sachs 및 Citigroup과 같은 회사들은 ChatGPT와 같은 도구의 사용을 제한하거나 금지했다.
그러나 이러한 기업 중 다수는 자체 AI 도구를 개발하는 과정에 있다.
JP모건은 거래 신호를 해독하기 위해 연방준비제도이사회의 성명을 분석하는 ChatGPT 기반 도구를 만들었다.
삼성은 또한 문서 번역 및 요약을 위한 AI 도구를 개발하고 있다.
전반적으로 삼성과 같은 기업들은 생성 AI 도구의 사용에 대한 보안 및 데이터 누출에 대한 우려로 인해 일시적인 제한을 두고 있다.
그러나 이러한 도구의 잠재력과 효율성을 인지하고 자체적인 AI 도구 개발에 힘쓰고 있다.
앞으로 보안 및 데이터 관리에 대한 기술 발전이 이루어진다면, 이러한 제한이 완화되고 다양한 산업 분야에서 AI 도구의 사용이 확대될 것으로 예상된다.
관련뉴스