legal수정일: 2026년 3월 28일

AI가 보호관찰관을 대체할까? 위험 평가 55% 자동화, 하지만 알고리즘이 누군가에게 두 번째 기회를 줄 자격이 있는지 결정할 수 있을까요?

AI 위험 예측 도구가 보호관찰관의 범죄자 평가 방식을 변혁하고 있지만, 재활 결과를 좌우하는 인간의 판단은 매 순간 자동화에 저항합니다.

알고리즘은 그를 고위험으로 점수 매겼습니다. 보호관찰관은 동의하지 않았습니다. 그녀가 맞았습니다.

2023년, 위스콘신의 22세 초범이 가장 널리 사용되는 AI 재범 예측 도구 중 하나인 COMPAS에 의해 "고위험"으로 분류되었습니다. 알고리즘은 그의 인구통계, 범죄 이력 등 수십 가지 변수를 분석하고 재범 가능성이 높다는 숫자를 내놓았습니다.

그의 보호관찰관은 그와 세 시간을 보냈습니다. 그가 방금 검정고시를 통과했다는 것, 할머니가 돌아가시려 하고 곁에 있고 싶어 한다는 것, 공동 피고인이 실제로 주도자였다는 것을 알게 되었습니다. 그녀는 집중 감독 대신 지역사회 기반 프로그램을 권고했습니다. 2년 후, 그는 취업하고, 커뮤니티 칼리지에 등록했으며, 위반 기록이 제로였습니다.

알고리즘이 통계적 의미에서 틀린 것은 아니었습니다. 주어진 입력값으로 그 예측은 방어 가능했습니다. 하지만 한 인간의 삶에 엄청나게 중요한 방식으로 불완전했습니다.

데이터 기반 예측과 인간 중심 판단 사이의 이 긴장감이 보호관찰 업무의 AI 변혁을 정의합니다.

숫자로 보면: 상당한 노출, 제한적 대체

보호관찰관 및 교정 치료 전문가의 전체 AI 노출도는 36%, 자동화 위험도는 27%로, "중간" 변혁 카테고리입니다 [사실]. 노동통계국은 2034년까지 소폭 +3% 성장을 전망하며 [사실], 현재 약 91,000명의 전문가가 중위 연봉 약 60,000달러로 일하고 있습니다 [사실].

업무별 분석은 정보 자동화와 판단 자동화 사이의 결정적 차이를 보여줍니다.

선고 전 조사 보고서 작성: 60% 자동화율 [추정]

PSI 보고서는 보호관찰관이 작성하는 가장 시간이 많이 드는 문서 중 하나입니다. 범죄 이력, 개인 배경, 고용 기록, 약물 남용 이력, 위험 요소를 종합 보고서로 편집합니다. AI는 여러 데이터베이스에서 기록을 끌어오고, 정보를 교차 확인하며, 불일치를 지적하고, 서술적 섹션의 초안을 생성하는 데이터 수집의 많은 부분을 자동화할 수 있습니다.

하지만 최종 보고서는 여전히 인간의 판단을 필요로 합니다. 관찰관이 무엇을 강조할지, 모호한 정보를 어떻게 특성화할지, 어떤 권고를 할지 결정합니다.

범죄자 위험 및 필요 평가: 55% 자동화율 [추정]

이것은 형사 사법 분야에서 AI의 가장 논란이 되는 영역입니다. COMPAS, LSI-R, ORAS 같은 도구가 알고리즘을 사용해 재범 위험을 예측하고 치료 필요를 식별합니다.

하지만 이들은 치열한 논쟁의 대상이기도 합니다. 2016년 ProPublica 조사에서 COMPAS가 흑인 피고인을 백인 피고인에 비해 유의미하게 더 자주 고위험으로 잘못 분류한다는 것이 밝혀졌습니다. 근본적인 우려는 남아 있습니다: 이 도구들은 학습된 역사적 데이터에 내장된 편향을 반영합니다.

미국 보호관찰 및 가석방 협회는 위험 평가 도구가 "전문적 판단을 대체하는 것이 아니라 알려주는 데 사용되어야 한다"고 권고합니다.

법원 명령 준수 모니터링: 48% 자동화율 [추정]

전자 모니터링이 기술로 변혁되었습니다: GPS 발찌, 약물 검사 데이터베이스, 자동 체크인 시스템, AI 기반 준수 패턴 분석. 하지만 위반에 대응하는 것은 인간의 판단이 필수적인 곳입니다. 양성 약물 검사가 재발을 의미할 수도, 처방 변경을 반영할 수도 있습니다.

대면 감독 면담: 8% 자동화율 [추정]

감독 면담은 보호관찰 업무의 핵심이며 자동화에 거의 완전히 면역입니다. 중독, 빈곤, 가족 붕괴, 정신 질환과 싸우는 사람 앞에 앉아 안정으로 향하는 길을 안내하는 것은 공감, 신뢰, 문화적 역량, 관계적 기술을 요구합니다.

상세 업무별 데이터와 자동화 추이는 보호관찰관 직업 페이지에서 확인하세요.

윤리적 위험 부담이 막대합니다

다른 많은 AI 자동화 논의와 달리, 형사 사법 분야의 위험 부담은 자유, 인종적 형평성, 근본적 공정성에 관한 것입니다. AI 도구가 누군가를 잘못 고위험으로 분류하면, 더 가혹한 감독 조건, 보호관찰 취소, 수감으로 이어질 수 있습니다.

보호관찰관이 지금 해야 할 일

1. 사용 중인 AI 도구를 이해하세요

기관에서 위험 평가 도구를 사용한다면, 정확히 어떻게 작동하는지, 어떤 데이터를 사용하는지, 알려진 한계가 무엇인지 배우세요.

2. 전문적 판단을 문서화하세요

알고리즘 평가에 동의하지 않을 때 이유를 문서화하세요. 이는 미래 도구 보정에 도움이 되는 기록을 만들고 여러분을 전문적으로 보호합니다.

3. 윤리적 AI 구현을 옹호하세요

기관의 기술 도입 논의에 참여하세요. AI 도구의 인종적, 인구통계적 편향에 대한 정기적 감사를 추진하세요.

4. 동기 부여 면담과 트라우마 인식 실무에 투자하세요

보호관찰관을 재활에 효과적으로 만드는 기술, 즉 동기 부여 면담, 트라우마 인식 돌봄, 문화적 역량은 AI가 복제할 수 없는 바로 그 기술입니다.

핵심 메시지: AI는 보호관찰관에게 더 나은 정보를 제공하고 있지만, 누군가가 두 번째 기회를 받을 자격이 있는지, 그리고 그 기회가 어떤 모습이어야 하는지에 대한 결정은 깊이 인간적인 것으로 남아 있습니다.


앤트로픽 노동시장 영향 보고서(2026)미국 노동통계국 데이터 기반 AI 보조 분석. 모든 자동화율은 복수의 연구 자료에서 도출된 추정치입니다.


태그

#probation officers#AI risk assessment#criminal justice AI#recidivism prediction#COMPAS algorithm