- 삼성, 챗GPT 등 AI 프로그램 사용 제한 발표
- 보안 문제로 내부 네트워크 및 기기에서 차단
- JP모건 등 주요 기업들도 AI 사용 규제
삼성이 보안 우려를 이유로 챗GPT와 같은 생성형 인공지능(AI) 프로그램의 사용을 제한한다.
5월 2일 블룸버그 보도에 따르면 삼성은 직원들이 생성형 AI 도구를 사용하는 것을 금지할 예정이다. 이번 조치는 한 직원이 AI 플랫폼에 민감한 코드를 업로드한 것이 계기가 됐다.
삼성은 AI 플랫폼을 통한 내부 데이터 유출 가능성을 우려하며, 직원들이 외부 서버에 정보를 저장하는 위험성을 강조했다. 이에 따라 사내 보안 조치를 강화하는 한편, 임시로 AI 사용을 제한한다고 밝혔다.
삼성 소유의 컴퓨터, 태블릿, 휴대전화 및 내부 네트워크에서 생성형 AI 도구 사용이 금지된다. 또한 개인 기기에서 AI를 사용할 경우에도 회사 정보를 입력하지 않도록 요청했으며, 이를 위반할 경우 최대 해고를 포함한 징계 조치를 받을 수 있다.
삼성은 향후 직원들의 생산성과 효율성을 높이기 위해 안전한 AI 활용 방안을 마련할 계획이다.
주요 기업들도 AI 사용 규제
삼성뿐만 아니라 글로벌 금융 기업들도 유사한 조치를 취하고 있다. 올해 초부터 JP모건, 뱅크오브아메리카, 골드만삭스, 씨티그룹 등은 챗GPT 사용을 제한하거나 금지했다.
그러나 일부 기업은 자체 AI 도구 개발을 병행하고 있다. JP모건은 연방준비제도이사회 성명을 분석해 거래 신호를 해독하는 AI 도구를 개발했고, 삼성도 문서 번역 및 요약을 위한 AI 프로그램을 연구 중이다.
보안과 데이터 보호 문제로 인해 AI 사용이 제한되고 있지만, 기업들은 AI의 잠재력을 활용하기 위해 자체적인 대안을 마련하는 추세다.