머신러닝을 공부를 하거나 실제 직종에 있는 사람들에게는 필독서라고 생각이 듭니다. 모델을 만들면서 느꼈던 데이터 수집 및 정제, 모델에 리스크를 어떻게 해결할 것인지 이책에서는 모델의 위험관리와 보안 등 신뢰할 수 있는 안전한 머신러닝을 개발하기 위한 방법을 알 수 있습니다.
CHAPTER 1: 현대의 머신러닝 위험관리
이 장에서는 새로운 기술인 인공지능과 머신러닝에 따르는 위험을 강조합니다. 인공지능 사고는 실제로 발생하며, 2016년 테이 챗봇 사건과 같이 예기치 않은 결과를 초래할 수 있습니다. 인공지능이 편리함을 제공하는 동시에 잠재적인 위험과 리스크를 동반한다는 점을 지적하며, 이러한 기술의 발전에 대한 신중한 접근이 필요함을 강조합니다.
CHAPTER 2: 해석 및 설명 가능한 머신러닝
CHAPTER 3: 안전성과 성능을 높이는 머신러닝 시스템 디버깅
안전한 머신러닝 시스템을 구축하고 운영하기 위한 다양한 전략과 대응 방안을 제시하며, 시스템의 안전성을 보장하기 위해 필요한 요소들을 강조합니다.
CHAPTER 4: 머신러닝 편향관리
머신러닝 시스템에서 발생할 수 있는 편향 문제와 이를 해결하기 위한 기술적, 사회적 접근 방안을 다룹니다. 또한, 사용자와 시스템의 상호작용을 통해 편향을 완화하는 방법을 설명하며, 트위터 이미지 자르기 알고리즘 사례를 통해 구체적인 예를 제시합니다.
https://www.aitimes.com/news/articleView.html?idxno=132361
CHAPTER 5: 머신러닝 보안
데이터 프라이버시의 중요성과 이를 보호하기 위한 다양한 규정 및 정책을 심도 있게 다루고 있다. 데이터 프라이버시는 개인의 프라이버시 보호를 위해 필수적이며, 각 국가에서는 서로 다른 방식으로 이를 적용하고 있다. 특히 GDPR과 같은 법적 근거가 데이터 프라이버시를 위한 규정을 제공하며, 이를 준수하는 것이 중요하다. 개인식별정보(PII)의 보호를 위해 익명화 처리가 필요하며, 생체인식 데이터는 특별한 보호가 필요하다. 또한, 법적 요구사항에 따라 데이터의 보유 기간과 보호 조치를 준수해야 한다는 점을 강조한다. 마지막으로, 소비자는 데이터 삭제 및 수정 권리를 가지며, 데이터 처리에 대한 명확한 설명이 중요함을 강조한다. 데이터 프라이버시에 관한 전반적인 이해를 높이며, 실제 사례와 법적 규정을 통해 실질적인 도움을 제공한다.
CHAPTER 6: 설명 가능한 부스팅 머신과 XGBoost 설명
머신러닝의 투명성을 높이기 위해 상호작용이 높은 모델과 XGBoost를 비교하고 분석하며, 입력 변수 간의 상호작용이 예측 성능에 미치는 영향을 평가하고, 이러한 분석을 통해 모델 기록 문서의 중요성과 투명한 모델 개발의 필요성을 강조한다.
CHAPTER 7: 파이토치 이미지 분류기
모델을 전이학습 및 미세조정을 하는 방법과 설명 가능성을 높이기 위해 사후 설명 기법을 사용하며, 특히 강건한 모델 기반 설명 가능성을 강조한다. 설명 가능한 딥러닝 모델의 발전을 통해 데이터 및 모델링 전문 지식의 필요성이 커지고, 인공지능 시스템 개발 시 도메인 지식의 중요성을 강조한다.
CHAPTER 8: XGBoost 모델 선택 및 디버깅
XGBoost 모델을 선택하는 이유와 그 중요성에 대해 깊이 있게 다루고 있다. 저자는 모델의 성능과 안정성을 극대화하기 위해 XGBoost 모델을 추천하며, 이를 통해 발생할 수 있는 다양한 버그를 사전에 식별하고 수정하는 과정의 중요성을 강조한다. 특히, 도메인 전문가와의 협업을 통해 모델을 지속적으로 모니터링하고 유지보수하는 것이 필수적이라는 점을 강조한다. 또한, 모델을 실제 배포한 후에도 꾸준한 모니터링을 통해 문제를 해결하는 것이 성공적인 머신러닝 프로젝트의 핵심이라고 설명한다.
CHAPTER 9: 파이토치 이미지 분류기 디버깅
파이토치를 이용한 이미지 분류기 디버깅을 할때 데이터 정제 및 훈련, 증강에서 나타날 수 있는 위험성에 대해 다룹니다.
CHAPTER 10: XGBoost를 사용한 편향 테스트 및 개선
"편향을 줄이고 공정한 모델을 선택하는 방법"이라는 주제에 대한 글은 비즈니스 요구사항을 충족하면서도 사회적 책임을 다하는 인공지능 모델을 선택하는 방법을 탐구합니다. 이 글에서는 성능이 뛰어난 모델을 선택할 때, 단순히 기술적 성과만을 고려하는 것이 아니라, 부당한 대우를 받던 모든 집단의 평형을 개선할 수 있는 모델을 선택하는 것이 중요하다고 강조합니다. 또한, 유리했던 집단을 차별하지 않도록 주의해야 한다는 점도 강조합니다.
CHAPTER 11: 레드팀 XGBoost
머신러닝 모델의 보안과 관련된 여러 가지 개념을 다루고 있습니다. 특히, 모델 디버깅 작업에 레드 팀 기능을 추가하는 방법을 제안하며, 해커가 모델에 어떤 공격을 시도할지 예측하여 효과적인 방어책을 마련하는 것이 중요함을 강조합니다.
정형 데이터로 훈련된 XGBoost 분류기를 공격하는 예를 통해 일반적인 머신러닝 공격과 방어에 대해 설명합니다. 이와 함께, 표준 접근방식으로 훈련된 모델과 제약조건 및 고차 L2 정칙화를 적용한 모델 두 가지를 소개하며, 이 두 모델을 사용해 공격을 설명하고 투명성과 L2 정칙화의 중요성을 알 수 있습니다.
CHAPTER 12: 고위험 머신러닝에서 성공하는 방법
마지막 결론 챕터에서는 모델 디버깅과 보안 접근방식을 사용하여 사람들이 신뢰할 수 있는 머신러닝 모델을 만드는 방법을 설명합니다. 기술 자체보다 사람에게 도움이 되는 모델을 만드는 것이 우선되어야 한다고 강조합니다. 과거에는 컴퓨터의 성능이 강조되었지만, 이제는 사람 중심의 접근이 필요하다는 것입니다.
지난 10년 동안 머신러닝은 사람의 입력 없이도 성공을 거두었지만, 앞으로는 사람과의 상호작용, 위험관리, 법률 준수가 중요한 요소가 될 것이라고 전망합니다. 이를 통해 사람을 위한 이익을 극대화하고 해를 최소화하는 것을 목표로 한다면, 더 많은 성공을 거둘 수 있으며 인간 중심의 윤리적 접근이 머신러닝의 성공에 필수적임을 일깨워줍니다.
"한빛미디어 <나는 리뷰어다> 활동을 위해서 책을 제공받아 작성된 서평입니다."
AI 트루스 (6) | 2024.10.17 |
---|---|
아는 만큼 보이는 AI (1) | 2024.09.08 |
실무로 통하는 ML 문제 해결 with 파이썬 (0) | 2024.05.20 |
멀티모달 생성 AI 인사이드 (0) | 2024.04.10 |
만들면서 배우는 생성 AI (0) | 2023.10.05 |
댓글 영역