당신 옆을 지나가는 차 — 자율주행에서 의료까지, AI는 어떻게 스며드는가
불완전한 AI와 불완전한 인간, 누가 덜 위험한가? 자율주행에서 의료까지, AI 수용 곡선은 항상 '최악보다 낫다'에서 시작한다.
서문: 세 대의 차
당신이 보행자라고 상상해 보자. 좁은 골목에서 차 한 대가 다가오고 있다. 세 대 중 하나다.
- A. 운전석에 사람이 없는 자율주행차
- B. 음주운전 차량
- C. 인지기능이 저하된 초고령 운전자 차량
어떤 차가 옆을 지나가면 좋겠는가?
물론 누구나 맑은 정신으로 주의 깊게 운전하는 사람의 차를 원한다. 하지만 현실의 도로는 그렇게 통제되지 않는다. 대부분의 사람은 본능적으로 A를 꺼린다. 사람이 없는 차라니. 하지만 잠깐 생각해 보면, B와 C 옆에 서고 싶은 사람은 없다. 최소한 A는 당신을 인식하고 있고, 음주 상태도 아니고, 반응 속도가 느려지지도 않았다.
이 불편한 선택지가 자율주행뿐 아니라 의료, 법률, 교육 등 AI가 스며드는 모든 분야에서 반복되고 있다. 이 글은 그 패턴에 대한 이야기다.
1. 숫자가 말하는 것, 감정이 거부하는 것
Waymo는 운전석에 사람이 없는 완전 무인(SAE Level 4) 자율주행 택시를 미국 여러 도시에서 상업 운행하고 있다. 2025년 9월까지 누적 1억 2,700만 마일을 무인으로 주행했다. 학술지 Traffic Injury Prevention에 발표된 peer-reviewed 연구(Kusano et al., 2025)에 따르면, 같은 도로·차종·지역의 인간 운전자와 비교하여 부상 사고율은 79%, 에어백 전개 사고율은 81%, 교차로 충돌은 96% 낮았다. 모두 통계적으로 유의미한 결과다.
하지만 S&P Global이 8개국 약 8,000명을 대상으로 실시한 2025년 자율주행 소비자 설문에서는 약 3분의 2가 고속도로 자율주행에 관심을 표했지만, “완전한 신뢰”를 보인 비율은 여전히 낮았다.
무인차가 인간보다 안전하다는 데이터는 축적되고 있다. 하지만 대중의 신뢰는 따라오지 않고 있다. 숫자는 “더 안전하다”고 말하고, 감정은 “싫다”고 말한다. 물론 대중의 두려움이 단순한 비합리는 아니다. 인간의 실수는 궤적이 예측 가능하지만, AI의 실수는 기괴하다. 자율주행차가 하얀 트레일러를 하늘로 착각하고, AI 의사가 존재하지 않는 병명을 확신에 찬 어조로 말하는 것 — 이 “기계 특유의 예측 불가능한 실패”에 대한 불안은 합리적이다. 이 괴리를 인정하는 것이 출발점이다.
2. 수용 곡선: 바닥에서 올라간다
새로운 기술이 인간을 대체하는 과정에는 일정한 패턴이 있다. 처음부터 “최고보다 낫다”로 시작하지 않는다. 항상 “최악보다 낫다”에서 시작한다.
자율주행의 경우를 보자.
- 1단계: “자율주행은 위험하다.” — 현재 대중 인식이 여기에 있다.
- 2단계: “음주운전자보다는 낫다.” — 무인 주행 데이터가 이 방향을 강하게 시사한다.
- 3단계: “인지기능이 저하된 고령 운전자보다 낫다.” — 같은 방향의 데이터가 축적 중이다.
- 4단계: “평균적인 운전자보다 낫다.” — Waymo의 무인 주행 데이터는 이 방향을 시사한다.
- 5단계: “인간이 왜 운전하는 거지?” — 아직 도래하지 않았다.
핵심은 이것이다: 대체는 위에서 내려오는 게 아니라 아래에서 올라온다. 최고의 운전자를 대체하는 것이 아니라, 가장 위험한 운전자부터 대체하는 것이다. 그래서 서문의 질문이 중요하다. 골목에서 마주칠 차가 음주운전 차량인 것보다 자율주행 차량인 것이 낫다는 합의가 먼저 이루어진다. 최고의 운전자와의 비교는 한참 뒤의 이야기다.
3. 의료: 같은 곡선이 시작되고 있다
이 패턴은 의료에도 그대로 적용된다.
- 1단계: “AI 진단은 위험하다.” — 현재 대중 인식.
- 2단계: “의사가 아예 없는 것보다는 낫다.” — 의료 사각지대에서 이미 증명 중.
- 3단계: “주 100시간(필자가 근무하던 시절 기준, 현재는 80시간) 연속 근무한 전공의보다 낫다.” — 머지않아 검증될 수 있다.
- 4단계: “평균적인 의사보다 낫다.” — 일부 영역에서 이미 근접.
- 5단계: “인간이 왜 진단하는 거지?” — 아직.
다만, 일반적인 수준의 AI 모델은 의학적으로 쓸모가 없다. 환각(Hallucination) — 존재하지 않는 병명이나 논문을 확신에 찬 어조로 만들어내는 현상 — 때문에 생명을 다루는 현장에서는 치명적이다. 필자가 직접 사용해 본 범위에서, 현재 내과 전문의 수준의 감별진단에 의미 있는 답변을 내놓는 모델은 최상위 심층 추론 모델에 한정된다.
AI 진료의 진짜 비용
이 글을 쓰면서 AI 모델(Gemini Deep Think)과 직접 비용 논쟁을 벌였다. AI는 처음에 “내과 상담 1회 비용은 100원 남짓”이라고 주장했다. 단순한 텍스트 처리 단가로는 수학적으로 맞지만, 의료를 텍스트 처리로 환원한 것이다.
실제 내과 전문의 수준의 진단에는 기본 내과학 교과서, 8개 세부 전공 교과서, 수십 개의 최신 가이드라인, 수만 개의 약물 상호작용 DB, 환자의 수년간 진료 기록, 최신 논문, 보험 급여 기준까지 — 1억 토큰 이상의 배경 지식이 필요하다. 진료는 1회 문답이 아니라, 초진에서 약물 조정까지 최소 5~9회의 연속적 심층 추론 과정이다. 캐싱과 RAG 같은 최적화 기술을 최대한 적용하더라도, 환자 1명을 끝까지 진료하는 AI의 순수 연산 비용은 약 15,000~27,000원이다. 한국의 내과 초진 총 진료비(약 17,000~20,000원)와 거의 맞먹는다.
표면적으로는 아직 인간 의사가 가격 경쟁력이 있어 보인다. 연산 비용이 더 떨어지면 곡선은 교차할 것이다. 하지만 진짜 문제는 비용이 아니다.
진짜 장벽: 누가 책임지는가
AI가 극히 낮은 확률로 환각을 일으켜 환자가 사망했을 때, 클라우드 서버를 감옥에 보낼 수는 없다.
2026년 현재, 인간 의사의 최종 승인 없이 AI가 독자적으로 진단하고 처방하는 시스템의 의료과실을 정면으로 담보하는 표준적인 배상책임보험 상품은 아직 보이지 않는다. 인간 의사의 오진은 수백 년간 축적된 역학 데이터로 확률을 계산할 수 있어 보험사가 보험료를 산정할 수 있다. 하지만 AI의 오진은 다르다 — 가중치를 잘못 학습한 AI가 전국 10만 명의 환자에게 동시에 같은 오류를 범하는 것은 의료 사고가 아니라 제조물 책임 대재앙이다. 어떤 보험사도 이 리스크를 인수하지 않는다.
그래서 구글, 마이크로소프트 등 빅테크 기업은 AI 의료 시스템의 약관에 반드시 이렇게 명시한다: “본 시스템은 임상적 의사결정 지원 도구일 뿐이며, 모든 법적 책임은 처방전에 서명한 인간 의사에게 귀속됩니다.”
결국 한국의 17,000원짜리 진료비가 AI를 막아내는 진짜 이유는 인간의 두뇌가 GPU보다 싸서가 아니다. 환자가 내는 17,000원에는 단순한 정보 처리 비용뿐 아니라, 시스템이 오류를 일으켰을 때 면허를 내놓고 배상할 ‘인간이라는 법적 책임 주체’를 고용하는 보험료가 포함되어 있는 것이다. 미국에서 같은 초진에 수십만 원을 내는 이유는 의사의 지식이 더 뛰어나서가 아니다. 의료배상보험료가 진료비에 정직하게 반영되어 있기 때문이다. 한국의 17,000원은 같은 책임을 지면서도 그 값을 제대로 받지 못하는 구조일 뿐이다.
그렇다면 이 ‘책임’이라는 장벽은 영원한가?
필자도 2017년에는 “오토파일럿이 있어도 비행기 기장은 남듯이, 의사도 남을 것”이라고 말했다. 지금은 그 비유를 근본부터 수정해야 한다고 생각한다.
인간이 있어서 더 위험한 경우
우리는 기계를 감시하기 위해 인간을 조종석에 둔다. 하지만 인간을 시스템 안에 남겨두는 것은 피로와 착각 같은 단순 실수를 넘어, 기계에는 아예 존재하지 않는 생물학적·심리적 붕괴라는 통제 불가능한 변수를 끌어안는 일이다. Bloomberg News(2022)의 분석에 따르면 2011년부터 2020년까지 서방 항공기 추락 사망 원인 2위는 조종사의 의도적 추락이었다.
AI는 우울증에 걸리지 않는다. 조종석 문을 잠그지 않는다. 승객과 함께 산에 충돌하지 않는다. 굳이 이런 극단적인 일탈이 아니더라도, 성실하고 평범한 인간의 섣부른 판단이나 피로, 착각이 잘 작동하는 기계의 성능을 도리어 망치는 일은 일상적으로 벌어진다. 인간이 시스템 안에 있는 것이 안전의 보장이 아니라 위험의 원인이 되는 순간이 분명히 존재한다.
그렇다면 “책임의 벽”은 영원한가? 필자는 아니라고 본다. 엘리베이터에는 한때 운전원이 있었다. 사고가 나면 그 사람이 책임졌다. 지금은 무인이고, 사고는 보험과 제조물 책임법으로 처리된다. 자동차도 마찬가지다. 운전자가 사고를 내면 개인이 책임지지만, 그 책임은 이미 보험료라는 사회적 비용으로 전환되어 있다.
AI가 인간보다 압도적으로 안전하다는 데이터가 충분히 축적되면, 사회적 합의가 이루어질 것이다. 다만, AI 오류는 인간 실수와 본질적으로 다르다. 인간 의사의 오진은 독립적 사건이지만, AI의 오진은 같은 모델을 쓰는 수십만 명에게 동시에 영향을 미치는 상관적 위험(correlated risk)이다. 보험사가 가장 꺼리는 종류의 리스크다. 엘리베이터나 자동차처럼 단순하게 민간 보험으로 전환되지는 않을 것이다. 원자력 발전소 사고나 백신 부작용처럼 국가 차원의 배상 기금이 조성되거나, 복수의 AI 모델이 서로를 교차 검증하도록 법제화되어 리스크를 분산시키는 등 새로운 사회적 인프라가 필요할 것이다.
그럼에도 방향은 명확하다. 제도가 기술을 따라잡으면, 책임의 벽도 결국 시스템의 비용으로 전환된다. 그때 기장의 역할은, 진단하는 의사의 역할은, 지금과는 근본적으로 달라져 있을 것이다. 오히려 “인간이 비행기를 조종하는 것”, “인간이 진료를 보는 것”이 더 위험하다고 인식되는 시점이 올 가능성이 있다.
단기적으로는 책임을 질 인간이 필요하다. 하지만 장기적으로 보면, 책임이라는 장벽도 결국 시스템의 비용으로 전환된다. 엘리베이터 운전원이 사라졌듯이.
4. 전 분야로: 공통 패턴
이 수용 곡선은 의료에만 해당되지 않는다. AI가 진입하는 거의 모든 전문 분야에서, 특정 과업(task)부터 동일한 패턴이 관찰된다. 중요한 것은 AI가 직업 전체를 대체하는 것이 아니라, 직업 안의 반복적이고 표준화된 과업부터 침투한다는 점이다.
법률: AI 계약서 검토가 이미 시작됐다. 수백 페이지의 계약서에서 위험 조항을 찾아내는 과업에서 AI는 피로하지 않는다. 변호사 없이 계약서를 검토하는 것보다 AI 검토가 나은 단계(2단계)는 이미 지났다. 하지만 법정에서 판사를 설득하는 것은 여전히 인간의 영역이다.
회계: AI 감사 도구는 인간이 놓치는 이상 패턴을 실시간으로 탐지한다. 감사인이 없는 것보다 AI 감사가 나은 단계는 지났고, 정형화된 감사 과업에서는 신입 회계사보다 나은 단계로 진입 중이다.
교육: AI 튜터는 학생 개인의 이해도에 맞춰 설명을 조절할 수 있다. 교사 한 명이 40명을 가르치는 것보다 AI가 1:1로 개념을 설명하는 과업에서 나은 영역이 분명히 존재한다. 다만, 아이의 눈을 보고 동기를 부여하는 것은 다른 차원의 일이다.
코딩: 이미 현재진행형이다. AI가 코드를 작성하고, 디버깅하고, 리뷰한다. “코딩을 모르는 사람이 하는 것보다 AI가 낫다”는 진작 지났고, 정형화된 코딩 과업에서 “주니어 개발자보다 낫다”는 단계에 진입했다.
공통 패턴을 한 줄로 요약하면 이렇다:
“최악보다 낫다” → 도입. “평균보다 낫다” → 확산. “최고보다 낫다” → 대체.
모든 분야에서, 좁고 반복적이며 피드백이 분명한 과업부터 같은 곡선을 그린다. 속도만 다르다.
5. 진짜 질문
서문의 질문으로 돌아가 보자. 골목에서 다가오는 세 대의 차 중 어느 것이 나은가라는 질문은 사실 이런 질문이다:
“불완전한 AI와 불완전한 인간 중 어느 쪽이 덜 위험한가?”
우리는 이 질문을 자율주행에서 이미 마주하고 있다. 머지않아 의료에서, 법률에서, 교육에서, 그리고 예상치 못한 분야에서 마주하게 될 것이다.
그리고 그때 남는 질문은 기술의 질문이 아니다.
자율주행이 도입된 뒤에도 남는 것은 “어디로 갈 것인가”라는 결정이다. 의료 AI가 진단을 대체한 뒤에도 남는 것은 “이 환자에게 무엇을 할 것인가”라는 판단이다. 코드를 AI가 짠 뒤에도 남는 것은 “무엇을 만들 것인가”라는 의지다.
책임은 어떠한가? 단기적으로는 인간이 져야 한다. 하지만 데이터가 쌓이고 사회적 합의가 이루어지면, 책임도 엘리베이터 보험처럼 시스템의 비용으로 전환될 것이다. 책임마저 보험료가 되는 시대에, 정말로 마지막까지 남는 것은 하나다.
방향을 정하는 의지. “나는 무엇을 할 것인가.” 그것이 모든 것을 AI가 해주는 시대에 가장 희귀한 자원이 될 것이다.
후기
이 글은 자전거를 타다가 떠오른 질문에서 시작했다. “음주운전자보다 자율주행이 나은 건 이미 자명한데, 왜 사람들은 자율주행이 더 무서운 걸까?” 그 질문을 의료로, 법률로, 교육으로 확장하니 같은 곡선이 보였다.
2017년에 필자는 “변화의 속도는 NVIDIA 황사장님께 달려있다”고 썼다. 그때 Nvidia 시가총액은 약 $65B이었다. 2026년 3월 현재 약 $4.4T이다. 68배. 예측은 맞았지만, 변화의 속도는 예측보다 빨랐다.
지금의 예측도 마찬가지일 것이다. 곡선은 올 것이고, 우리가 생각하는 것보다 빠를 수 있다. 당신 옆을 지나가는 차가 무인차인 것이 당연한 날이 올 수 있고, 당신의 건강을 AI가 관리하는 것이 당연한 날이 올 수 있다.
그날이 오기 전에 준비해야 할 것은 기술이 아니다. “나는 무엇을 할 것인가”라는 질문이다.
