'챗GPT' 등 대형 언어모델(LLM) 기반 인공지능 기술의 업무 활용 소요가 증가함에 따라, (개인)정보 수집·데이터 유출 등 보안 우려가 지속 제기되고 있습니다.
3. 이에, 교내 각 기관 및 구성원은 아래의 보안 유의사항을 준수하여 신기술을 활용한 업무 진행시 관련 정보가 안전하게 처리될 수 있도록 협조하여 주시기 바랍니다.
가. 생성형 AI 활용 시 보안 유의사항
1) 질의(prompt)에 △개인정보 △비공개 업무자료 등 민감정보 입력 시 정보가 유출될 수 있는 바, 공개정보 위주로 보안에 유의하여 사용
• 민감한 정보(非공개 정보, 개인정보, 대학 내부정보 등) 입력 금지 * 설정에서 「대화 이력&학습」 기능 非활성화 • 생성물에 대한 정확성·윤리성·적합성 등 再검증 • 생성물 활용 시 지적 재산권·저작권 등 법률 침해·위반 여부 확인 • 연계·확장프로그램 사용 시 보안 취약여부 등 안전성 확인 |
2) 인공지능 등을 활용하여 자동화된 개인정보 처리 시
• 개인정보 등 민감한 정보 유출 방지 • 개인정보 보호법 등 개인정보의 처리에 관한 규정을 준수하여 데이터 처리 • 개인정보 등 민감한 정보를 처리하기 전에 사용자의 동의 획득 • 데이터 가명화, 익명화를 통해 데이터 누출 시 개인을 직접식별 또는 연관 불가토록 조치 |
3) ‘GPT API’ 도입 등 대형 언어모델 기반의 인공지능 기술을 활용한 정보화사업 추진 시 사전 보안성 검토 준수
• 정보보호 관리규정 제25조(보안성 검토) ☞ https://dku.kr/su/nUl4UAW • 정보시스템 운영보안 지침 제25조(보안 요구사항 검토 및 시험) ☞ https://dku.kr/su/oko3Ldr |