https://n.news.naver.com/article/243/0000042639





삼성전자 DS부문에서 11일부터 챗 GPT 사용을 허용했는데

허용하면서 “사내 정보 보안에 주의하고 사적인 내용을 입력하지 말라”는 공지를 내렸음


근데 약 2~3주 되는 기간동안 3번이나 유출사고




케이스 1


직원이 반도체 설비 계측 데이터베이스 다운로드 프로그램의 소스코드를 실행 중 오류를 발견했는데

문제가 된 소스 코드를 전부 통째로 복사 붙여넣기로 넣어서 챗GPT에 물어봄


이로 인해 삼성전자 설비 계측 소스코드가 오픈 AI 학습 데이터로 사용됨



케이스 2


또다른 직원은 수율, 불량 설비 파악을 위해 프로그램을 작성하는데

이인간도 소스코드 최적화 하려고 챗 GPT에 코드 통째로 복붙해버리는 사고를 내버림



케이스 3


이 직원은 스마트폰으로 녹음한 회의 내용을 네이버 클로바 어플로 문서 파일로 바꾼 후

회의록 작성하려고 챗 GPT에 회의 내용을 전부 입력함




결국 사고친 직원들 경위 조사후 필요시 징계 처분에

한 질문당 1024바이트로 제한하는 긴급조치 내려짐


삼성전자는 이러한 사고를 막기 위해 사내전용 자체 AI 서비스를 개발 예정