[한국산업안전뉴스 이강현 기자] [생성형 AI 윤리 가이드] 생성형 AI는 기존 데이터 뿐 아니라 사용자와의 대화를 통해 획득한 데이터를 새로운 학습 자료로 추가합니다. 이렇게 다양한 방식으로 대규모 데이터를 수집하면서 의도하지 않더라도 사전 통지나 동의를 구하지 않은 개인정보를 학습하게 되고 이러한 데이터는 외부로 유출될 위험을 가지고 있습니다. 생성형 AI를 올바르게 사용하기 위해 필요한 윤리 가이드 여덟 번째, 개인정보와 인격권에 대해 자세히 알아보아요! Q1. 생성형 AI와 나눈 대화가 학습되어 다른 사람들에게 노출될 수 있나요 (O) 생성형 AI와 나눈 대화는 학습 데이터로서 다른 이용자들에게 제공이 되는 등 노출될 가능성을 배제할 수 없습니다. 이를 방지하기 위해서는 이용자가 자신의 뜻을 생성형 AI의 데이터 제어 설정에 반영한 후 이용하는 것이 바람직합니다! 챗GPT와 같은 생성형 AI를 이용할 때에는 주민등록번호, 신용카드 정보, 비밀번호 등의 개인정보는 물론 자신이 소속된 회사 조직 등의 정보를 입력하지 않도록 주의 필요! Q2. 생성형 AI와의 대화 내용이 AI 기업 서버에 저장되거나 AI 관계자가 확인할 수 있다고 하는데 사실인가요 (O) 생성형 AI에 입력되는 내용들은 해당 서비스 기업 서버에 저장되고, AI 학습에 재이용되는 등 외부 유출 위험이 있습니다. 따라서 개인정보나 회사 기밀 등 보안이 필요한 민감한 정보들은 생성형 AI에 입력하면 안됩니다! Q3. 생성형 AI가 특정인을 차별하고 비난하며 명예 훼손하는 내용을 작성한 것을 확인했는데 생성형 AI를 처벌할 수 있나요 (X) AI는 인간이 아니기에 법적인 처벌이 불가능합니다. 생성형 AI를 활용하다 특정인의 명예를 훼손할 수 있는 내용을 확인했을 경우, 책임감을 가지고 프롬프트를 수정하고 올바른 내용을 학습시켜 생성형 AI가 이런 내용을 반복해 제공하지 않도록 합니다. 악의적으로 이용해 가짜뉴스 등의 콘텐츠를 제작하는 경우 이용자가 형사처벌의 대상이 될 수 있습니다. 생성형 AI 이용 과정에서 이용자들이 준수해야 하는 윤리의식이 중요! - 책임감 있는 서비스 이용, 잘못된 내용 수정 유익한 것은 취하고 유해한 것은 피하며 생성형 AI를 책임감 있게 사용해요!
<저작권자 ⓒ 한국산업안전뉴스 무단전재 및 재배포 금지>
댓글
|
많이 본 기사
|