기술을 이해하면 프라이버시 문제가 보인다
생성형 AI와 대규모 언어 모델(LLM)이 일으키는 프라이버시 침해 문제를 다룬다. 생성형 AI는 사용자 질문에 맞춰 다양한 콘텐츠를 생성하는 기술로 무차별적으로 수집된 데이터에서 프라이버시 침해가 발생할 수 있다는 우려가 커지고 있다. 이 책은 생성형 AI의 특징에 따른 프라이버시 침해의 가능성을 명확히 제시하며, 개인정보 보호의 중요성을 강조한다.
기존의 예측형 AI와 달리 생성형 AI는 명확한 목적 없이 방대한 데이터를 수집해 이를 학습한다. 이 과정에서 사용자의 민감 정보가 무단으로 포함될 수 있으며, 훈련용 데이터로 쓰인 정보가 제대로 필터링되지 않을 수 있다. 또한 생성형 AI는 자칫 개인의 개인정보를 부주의하게 생성하거나 유출할 위험도 존재한다. 이 책은 이러한 문제를 해결하기 위한 방안을 제시하며, 유럽연합의 일반개인정보보호법(GDPR)과 한국의 개인정보보호법을 중심으로 프라이버시 보호를 위한 원칙을 논의한다. AI 개발자가 직면한 윤리적 딜레마와 법적 갈등을 다루며, 생성형 AI의 데이터를 수집하고 처리하는 방식에서 발생하는 법적 문제들을 해결할 방법을 모색한다. 생성형 AI의 발전과 빠른 확산에 따라, 기술적 발전에 대한 충분한 이해와 법적 제재가 뒤따라야 한다.