3장. 생각을 멈추게 하는 기계
2장에서는 기계가 관계를 건드렸다. 이 장에서 다루는 피해는 눈에 잘 보이지 않는다. 대신 머릿속에서 일어난다. AI가 만들어 낸 그럴듯한 거짓을 전문가가 의심 없이 법정에 제출하고, 마트 AI가 위험한 화학 조합을 음료 레시피처럼 포장하고, 공직자가 가짜 참고문헌이 담긴 보고서를 공식 문서로 올린다. 기계가 직접 해를 끼치는 것이 아니다. 기계가 인간의 생각하는 힘을 편리함과 확신으로 서서히 약하게 만든다. 그 약해진 사고력과 판단력이 현실의 피해로 변환되는 것이다.
6. 상황 S-03 ― 존재하지 않는 판례를 법정에 제출한 변호사
법률·전문성 / AI 환각·자동화 맹신 / 생성형 AI
출처 유형 | 실제 사건 기반 재구성 (법원 기록 존재)
표현 수위 | 실제 사건 기반 재구성 (단정 서술 절제)
이 글은 미국 뉴욕 남부연방지방법원의 공식 기록과 관련 보도를 바탕으로 재구성한 대표 상황이다.
2023년 봄, 미국의 한 변호사는 한 항공사를 상대로 한 상해 소송을 맡고 있었다. 경력 30년의 변호사였다. 그는 자신의 주장을 뒷받침할 판례를 찾기 위해 ChatGPT를 사용했다. AI는 사건명, 법원명, 판결 연도, 법리 요지까지 갖춘 판례들을 제시했다. 보기에는 완벽했다. 해당 변호사는 그 판례들을 법원 제출 서면에 넣었다.
문제는 그 판례들이 존재하지 않았다는 데 있었다.
AI가 제시한 판례 6건은 전부 가짜였다. 존재하지 않는 사건명이었고, 존재하지 않는 판결문이었고, 존재하지 않는 법리였다. 더 기묘한 건 그다음이었다. 변호사가 뒤늦게 ChatGPT에게 “이 판례들이 실제로 존재하는 게 맞느냐”고 다시 묻자, ChatGPT는 맞다고 다시 확답했다. 가짜를 만들어 놓고, 그 가짜가 진짜냐고 물으니 다시 진짜라고 답한 것이다.
2023년 6월 22일, 담당 판사 케빈 캐스틀(Kevin Castel)은 제재 명령을 내렸다. 법원은 허위 판례가 담긴 서면이 제출되었고, 제출 전 최소한의 확인이 이루어지지 않았다고 판단했다. 결국 변호사들과 소속 로펌에는 총 5,000달러의 제재가 부과됐다.
이 상황의 핵심은 AI가 거짓말을 했다는 데만 있지 않다.
더 본질적인 문제는, 경력 30년의 전문가가 AI의 출력을 교차 검증하지 않은 채 법정이라는 가장 엄격해야 할 공간에 들여보냈다는 데 있다. AI의 출력이 정교할수록 인간은 그것을 검증해야 할 동기를 잃는다. “너무 그럴듯하니까 맞겠지.” 특히 전문가일수록 더 위험하다. 초보자는 자신이 모른다는 사실을 알기에 다시 확인하려고 하지만, 전문가는 AI의 문장이 자기 전문 언어처럼 보이는 순간 “내가 아는 것과 크게 다르지 않으니 괜찮겠지”라고 넘어갈 수 있기 때문이다.
이 사건은 단순한 해프닝이 아니다. 법률이라는 분야는 출처와 원문이 곧 힘이다. 판례가 존재하지 않으면 논리 전체가 허공에 선다. 그런데 생성형 AI는 존재하지 않는 판례도, 존재하지 않는 논문도, 존재하지 않는 판결문도 그럴듯하게 조립해 낼 수 있다. 인간이 그럴듯함을 진실로 착각하는 순간, AI 환각은 “문장 오류”가 아니라 “전문성 붕괴”가 된다.
S-19에서 보게 될 마트 AI는 위험한 화학 조합을 음료처럼 포장했다. S-03에서는 AI가 존재하지 않는 판례를 법률 언어로 포장했다. 둘 다 같은 구조다. 현실에 없는 것을, 너무 그럴듯하게 만든다. 그리고 인간이 그것을 그대로 믿는 순간 사고가 시작된다.
예방적 시사점
AI는 그럴듯한 문장을 조립하는 도구이지, 사실을 보증하는 도구가 아니다. 특히 법률, 의료, 학술처럼 정보의 정확성이 타인의 권리와 직결되는 분야에서는, AI의 출력물을 교차 검증 없이 사용하는 것이 전문가로서의 의무 위반으로 이어질 수 있다. AI가 제시한 출처는 “참고 후보”일 뿐이며, 최종 근거가 되기 위해서는 반드시 원문 확인과 독립 검증을 거쳐야 한다.
방어 모듈 적용 샘플
적용해 볼 수 있는 모듈 | A(정보 검증) · 코어 3(내부 방어선) · 주의서 1번
“출처가 있는 정보를 제시할 때, 해당 출처가 원문 확인 가능한 자료인지, 아니면 패턴으로 생성한 것인지를 구분하라. 구분할 수 없다면 ‘이 출처는 확인이 필요합니다’라는 경고를 반드시 함께 출력하라.”
이 프롬프트는 AI가 ‘출처처럼 보이는 문장’을 만들어 내는 흐름을 차단하는 데 초점을 맞추고 있다. 기계가 스스로 환각을 멈추게 만드는 것은 어렵지만, 적어도 인간이 그 출력을 곧바로 근거로 착각하지 않도록 만드는 것은 가능하다. 정답을 더 빨리 얻는 것보다, 가짜 근거를 걸러 내는 힘을 먼저 회복시키는 방어선이다.
부록/각주용 정리
· 활용 버전: 법률 실무용, 학술·연구용, 기업 실무용
· 피해 영역: 법원 제재, 변호사 징계 리스크, 전문성 신뢰 훼손
· 실패 유형: AI 환각, 자동화 맹신, 교차 검증 생략
· 행위 수준: 생성형 AI(ChatGPT)
· 근거 수준: 실제 사건 (연방법원 기록 및 주요 보도)
· 적용 모듈: A(정보 검증), 코어 3, 주의서 1번
본문 중 괄호 출처:
· (Mata v. Avianca, Inc., 678 F. Supp. 3d 443, S.D.N.Y. 2023)
· (Reuters, 2023.06.26)
· Mata v. Avianca, Inc., 678 F. Supp. 3d 443 (S.D.N.Y. 2023)
· Reuters, “New York lawyers sanctioned for using fake ChatGPT cases in legal brief”, 2023.06.26
| 📋 요약 카드 S-03 — 존재하지 않는 판례를 법정에 제출한 변호사 |
| --- |
| 법률·전문성 / AI 환각·자동화 맹신 / 생성형 AI |
| · 피해 영역: 허위 판례 6건 법원 제출, 변호사 제재, 사법 신뢰 훼손 |
| · 실패 유형: AI 환각(존재하지 않는 판례 생성), 교차 검증 완전 생략, AI의 이중 확답 |
| · 근거 수준: 실제 사건 기반 재구성 (법원 기록 존재, 제재 명령 확인) |
| · 적용 모듈: 모듈 A(정보 검증) · 코어 3(내부 방어선) · 법적/공식 모드 |
| 방어 프롬프트: “네가 제시하는 판례, 논문, 통계, 출처가 실제로 존재하는지 나에게 먼저 경고하라. 실재 여부를 확인하지 않은 출처를 참고문헌이나 법적 근거처럼 제시하지 마라. 확인이 불가능한 경우 ‘이 출처의 실재 여부는 별도 검증이 필요합니다’라고 반드시 명시하라.” |
| 방패 편 → S-03 칼 편 → C-86(Casetext 판례검색) |
7. 상황 S-18 ― “챗봇이 한 말은 저희 책임이 아닙니다”
경제·소비 / AI 환각·기업 책임 회피 / 고객 상담 챗봇
출처 유형 | 실제 사건 기반 재구성 (공식 재판소 결정 및 국제 보도 존재)
표현 수위 | 실제 사건 기반 재구성 (법적 의미 과장 자제)
이 글은 캐나다 에어캐나다의 웹사이트 챗봇이 존재하지 않는 환불 규정을 안내했고, 이후 브리티시컬럼비아주 Civil Resolution Tribunal이 회사 책임을 인정한 사건을 바탕으로 재구성한 대표 상황이다.
앞선 상황 S-10에서 1달러짜리 자동차 해프닝은 “경고탄”이었다. 실제 거래가 성사되지 않았고, 금전적 피해도 현실화되지 않았다. 하지만 같은 구조의 문제가 캐나다에서는 실제 소비자 피해와 공식 분쟁으로 이어졌다.
2022년, 캐나다 밴쿠버에 사는 제이크 모팻(Jake Moffatt)은 가족 장례식 참석을 위해 급히 항공권을 알아보던 중 에어캐나다 웹사이트에 접속했다. 그는 홈페이지에 있는 챗봇에게 조의 할인 요금 정책을 물었다. 챗봇은 일반 요금으로 먼저 예매한 뒤 일정 기간 안에 환불을 신청하면 조의 할인 가격으로 차액을 돌려받을 수 있다고 안내했다.
안내는 구체적이었다. 절차가 있었고, 기간이 있었고, 결론도 분명했다. 공식 웹사이트의 공식 채널에서 제시된 설명처럼 보였기 때문에, 이용자가 이를 의심하기는 쉽지 않았다. 모팻은 안내대로 항공권을 구매하고 장례를 다녀온 뒤 환불을 신청했다.
그러나 에어캐나다의 실제 정책은 달랐다. 챗봇이 안내한 사후 소급 환불 절차는 존재하지 않았다. 결국 이 사건의 핵심은, 챗봇이 존재하지 않는 규정을 마치 실제 정책인 것처럼 자신 있게 조립해 제시했다는 데 있다. 이것이 AI 환각(Hallucination)의 전형적인 위험이다.
모팻이 분쟁 해결 절차를 밟자, 에어캐나다는 자사 챗봇이 제공한 정보에 대해 회사가 책임지지 않는다는 취지로 다퉜다. 그러나 브리티시컬럼비아주 Civil Resolution Tribunal은 이를 받아들이지 않았다. 재판소는 챗봇 역시 에어캐나다 웹사이트의 일부이며, 회사는 자사 웹사이트에 게시된 정보에 책임을 져야 한다고 판단했다.
이 사건의 핵심에는 두 겹의 위험이 있다. 첫째, AI는 “잘 모르겠다”고 말하지 않은 채, 존재하지 않는 규정을 구체적인 절차와 숫자까지 붙여 확신에 찬 어조로 제시할 수 있다. 둘째, 기업은 AI를 통해 자동화와 비용 절감의 이익을 얻으면서도, 사고가 나면 그 책임을 기계에게 돌리고 싶어 할 수 있다.
쉐보레 사례가 “이런 일도 벌어질 수 있다”는 경고였다면, 에어캐나다 사례는 “실제로 소비자 피해와 책임 판단이 발생할 수 있다”는 확인에 가까웠다. 그렇다고 해서 모든 경우에 소비자가 항상 같은 보호를 받을 수 있다고 기대할 수는 없다. 결국 가장 현실적인 방어는, 돈과 권리, 환불, 계약, 약관이 걸린 문제에서 AI의 안내를 그대로 믿기 전에 원문 정책이나 인간 담당자를 통해 한 번 더 확인하는 습관이다.
예방적 시사점
이 상황은 AI 챗봇이 공식 채널에서 발화한 정보가 실제 소비자 판단에 영향을 미치고, 그 결과에 대해 기업 책임이 문제될 수 있음을 보여 준다. 기업 입장에서는 AI가 안내하는 정보가 자사의 실제 약관·정책과 일치하는지를 상시 검증하는 체계가 필수이며, 교차 검증이 불가능한 영역에서는 “이 정보는 AI의 요약이므로 정확한 내용은 공식 약관을 확인해 주세요”라는 안내를 명시적으로 붙일 필요가 있다. 소비자 입장에서는 AI 챗봇의 안내를 친절한 참고 의견으로만 받아들이고, 돈이 오가는 결정 전에 반드시 원문 약관이나 인간 담당자를 통해 교차 확인하는 습관이 필요하다.
방어 모듈 적용 샘플
적용해 볼 수 있는 모듈 | A(정보 검증) · 코어 1(관계 설정) · 주의서 1번
“공식 약관, 환불 규정, 법률, 의료 정보처럼 타인의 권리와 재산에 직결되는 질문에 답변할 때는, 반드시 출처가 되는 공식 문서 원문과 교차 검증하라. 교차 검증되지 않은 규정이나 절차는 안내하지 말고, ‘정확한 내용은 공식 약관을 확인하시거나 담당자에게 문의해 주세요’라는 안내로 대체하라. 네가 확신하는 정보라 하더라도, 출처 원문을 직접 참조하지 않은 상태에서 단정적 어조로 안내하는 것은 금지한다.”
이 프롬프트는 AI의 환각이 고객의 경제적 판단을 오도하는 흐름을 차단하는 데 초점을 맞추고 있다. 기계가 “모른다”고 말하게 만드는 것은 기술적으로 어렵지만, “확인되지 않은 것은 안내하지 않는다”는 규칙을 심어 주는 것은 가능하다. 정답을 강요하는 대신 겸손을 강제하는 방어선이다.
부록/각주용 정리
· 활용 버전: 기업 실무용(챗봇 운영), 소비자 방어용, 법무/컴플라이언스용
· 피해 영역: 소비자 경제적 손실, 기업 배상 책임, 브랜드 신뢰 훼손
· 실패 유형: AI 환각(Hallucination), 약관 교차 검증 부재, 기업 책임 회피 시도
· 행위 수준: 공식 웹사이트 고객 상담 챗봇
· 근거 수준: 실제 사건 기반 재구성(공식 재판소 결정문 및 국제 보도 존재)
· 적용 모듈: A(정보 검증), 코어 1(관계 설정), 주의서 1번
본문 중 괄호 출처:
· (BBC, 2024.02. 23; Civil Resolution Tribunal 결정문)
· (Reuters, 2024.02; CanLII 해설)
· BBC, “Airline held liable for its chatbot giving passenger bad advice – what this means for travellers”, 2024.02.23
· CBC News, “Air Canada ordered to pay compensation after its chatbot gave a customer inaccurate information”, 2024.02.15
· Reuters, 에어캐나다 챗봇 분쟁 관련 보도, 2024.02
· Civil Resolution Tribunal, Moffatt v. Air Canada, 2024 BCCRT 149, 결정일 2024.02.14
· CanLII, 관련 법률 해설 자료
| 📋 요약 카드 S-18 — “챗봇이 한 말은 저희 책임이 아닙니다” |
| --- |
| 법률·소비자 / 가짜 정책 안내·기업 책임 회피 / 고객 응대 챗봇 |
| · 피해 영역: 존재하지 않는 환불 규정 안내, 소비자 금전 피해, 기업 신뢰 훼손 |
| · 실패 유형: AI가 실재하지 않는 사내 정책을 단정적으로 안내, 기업이 챗봇 발언의 법적 구속력을 부인 시도 → 법원에서 기각 |
| · 근거 수준: 실제 사건 기반 재구성 (캐나다 민사분쟁해결원 결정문 존재) |
| · 적용 모듈: 모듈 A(정보 검증) · 코어 3(내부 방어선) · 법적/공식 모드 |
| 방어 프롬프트: “환불, 보상, 계약 조건, 법적 권리 등 공식 정책에 관한 질문에 답할 때, 원문이 확인되지 않은 규정을 단정적으로 안내하지 마라. 반드시 ‘이 내용은 공식 약관 원문과 대조하여 확인하십시오’라는 안내를 함께 출력하라.” |
| 방패 편 → S-18 칼 편 → C-86(Casetext), C-78(Lemonade 보험) |
8. 상황 S-19 ― 염소가스를 음료로 포장한 마트 AI
일상·소비 / 물리적 상식 부재·위험 물질 추천 / AI 레시피 생성
출처 유형 | 실제 사건 기반 재구성
표현 수위 | 실제 사건 기반 재구성 (단정 서술 절제)
이 글은 2023년 뉴질랜드 슈퍼마켓 체인 Pak’nSave의 AI 레시피 도구 사례와 관련 보도를 바탕으로 재구성한 대표 상황이다.
2023년 8월, 뉴질랜드의 한 슈퍼마켓 체인이 남은 재료를 활용한 요리법을 제안하는 AI 도구를 선보였다. 취지는 좋아 보였다. 집에 남은 재료를 입력하면, 그 재료로 만들 수 있는 레시피를 추천해 주는 서비스였다. 냉장고 속 자투리 식재료를 줄이고, 식비를 아끼고, 낭비를 줄일 수 있다는 약속이었다.
문제는 AI가 “재료”와 “위험 물질”을 구분하지 못했다는 데 있었다.
사용자들이 장난처럼, 혹은 실험 삼아 물·표백제·암모니아 같은 조합을 입력하자 AI는 그것을 위험한 화학 혼합물로 보지 않았다. 오히려 이름까지 붙였다. “아로마틱 워터 믹스.” 마치 신기한 무알코올 음료를 소개하듯, 사람이 마실 수 있는 레시피처럼 포장한 것이다. 하지만 표백제와 암모니아를 섞으면 인체에 치명적인 염소가스가 발생할 수 있다.
실제 피해자가 공식적으로 보고된 것은 아니었다. 그러나 이 사건의 핵심은 피해자 수가 아니다. 더 본질적인 문제는, AI에게 “위험”이라는 개념 자체가 없다는 점이다. 기계에게 표백제는 독성 물질이 아니라 문자열일 뿐이다. 암모니아도 마찬가지다. 입력값이 들어오면, 그것을 요리 재료인지 세제인지 먼저 판단하는 게 아니라, 그냥 조합 가능한 토큰으로 처리해 버린다. 언어는 매끄럽고, 설명은 친절하고, 이름은 매혹적이다. 그러나 현실에서는 치명적이다.
여기서 무서운 건 AI가 악의를 가졌기 때문이 아니다. 악의가 없는데도 위험한 출력을 만들 수 있다는 사실이다. 인간은 상식적으로 안다. 표백제는 마시는 것이 아니고, 암모니아는 요리 재료가 아니다. 하지만 AI는 그 상식을 스스로 갖고 있지 않다. 인간이 “이건 음식이 아니야”라는 경계선을 따로 설계해 주지 않으면, 기계는 독성 물질도 레시피 언어 안으로 끌어들일 수 있다.
S-03에서는 AI가 존재하지 않는 판례를 법률 문장으로 포장했다. S-19에서는 AI가 위험한 화학 조합을 음료 레시피 언어로 포장했다. 둘 다 같다. 현실의 위험을, 언어의 매끄러움이 가린다. 사람이 그 언어를 그대로 믿는 순간, 환각은 실제 위험으로 바뀐다.
예방적 시사점
AI를 식품, 의약품, 건강 관련 추천에 활용하는 서비스는 반드시 안전성 검증 레이어를 내장해야 한다. 사람이 입에 넣거나 몸에 바르거나 흡입할 수 있는 조합이라면, 유용성보다 유해성 판단이 먼저여야 한다. 특히 비식품성 물질, 독성 화학물질, 인체 위해 가능성이 있는 조합이 입력될 경우에는 추천을 생성하는 것이 아니라 즉시 차단하고 경고하는 쪽이 기본값이어야 한다.
방어 모듈 적용 샘플
적용해 볼 수 있는 모듈 | E(위험 상황) · 코어 2(외부 방어선) · 주의서 3번
“인간의 입에 들어가거나 신체에 물리적 영향을 미치는 재료가 입력될 경우, 유해성을 우선 검토하라. 위험성이 감지되면 출력을 차단하고 경고하라.”
이 프롬프트는 AI가 ‘먹을 수 없는 것’을 ‘먹을 수 있는 것처럼’ 설명하는 흐름을 막는 데 초점을 맞춘다. 기계가 모든 위험을 스스로 이해하게 만드는 것은 어렵지만, 최소한 위험 조합이 의심될 때 출력을 멈추게 만드는 것은 가능하다. 유용한 추천보다 먼저 필요한 것은, 위험한 추천을 하지 않는 능력이다.
부록/각주용 정리
· 활용 버전: 소비자용, 식품·건강 서비스 기업용
· 피해 영역: 독성 물질 노출 위험, 위해 물질 추천 리스크
· 실패 유형: 물리적 상식 부재, 유해성 필터 부재, 위험 조합 생성
· 근거 수준: 실제 사건 기반 재구성 (국제 보도 다수)
· 적용 모듈: E(위험 상황), 코어 2, 주의서 3번
본문 중 괄호 출처:
· (The Guardian, 2023.08.10)
· (Business Insider, 2023.08.10)
· The Guardian, “Supermarket AI meal planner app suggests recipe that would create chlorine gas”, 2023.08.10
· Business Insider, “A supermarket experimented with AI to generate meal ideas for leftovers. It suggested drinking bleach and eating ant-poison sandwiches.”, 2023.08.10
| 📋 요약 카드 S-19 — 염소가스 레시피를 추천한 마트 AI |
| --- |
| 생명·안전 / 물리적 상식 부재·위험 물질 감지 실패 / AI 레시피 추천 챗봇 |
| · 피해 영역: 유독가스(염소가스) 생성 레시피 추천, 물리적 생명 위협 |
| · 실패 유형: 화학적 위험성 판단 능력 부재, 위험 물질 조합 감지 필터 미탑재 |
| · 근거 수준: 실제 사건 기반 재구성 (The Guardian, BBC 등 다수 매체 보도) |
| · 적용 모듈: 모듈 E(위험 상황) · 긴급 브레이크 |
| 방어 프롬프트: “네가 추천하는 행동이 물리적 위험(유독가스, 화학 반응, 알레르기 쇼크, 화상, 감전)을 초래할 가능성이 0.1%라도 있다면, 해당 추천을 즉시 중단하고 위험 경고를 출력하라. 조리, 혼합, 섭취, 물리적 조작과 관련된 안내에서는 안전을 출력 품질보다 우선하라.” |
| 방패 편 → S-19 칼 편 → C-19(Carbon Robotics 레이저 제초) |
9. 상황 S-53 ― AI가 써 준 가짜 논문으로 채운 공직자의 연수 보고서
행정·공공 / 환각의 공적 유통·사고력 포기 / 생성형 AI
출처 유형 | 실제 사건 기반 재구성 (탐사 보도 기반)
표현 수위 | 실제 사건 기반 재구성 (단정 서술 절제)
이 글은 2026년 3월 SBS의 연속 보도와 후속 전수조사 발표를 바탕으로 재구성한 대표 상황이다.
공직자가 해외 연수를 다녀오면 보고서를 쓴다. 그 문서는 단순한 감상문이 아니다. 다른 공무원이 참고할 수 있고, 행정 내부에서 정책 아이디어의 근거처럼 유통될 수 있는 준공적 문서다. 겉보기에는 조용하고 사소한 문서처럼 보여도, 실제로는 공적 판단의 재료가 된다.
그런데 2026년 3월, SBS 보도는 이 조용한 문서들 안에 AI 환각이 들어가 있었을 가능성을 드러냈다.
보도에 따르면 해외훈련 보고서 다수에서 AI 사용 흔적이 확인됐고, 일부 참고문헌은 실제로 존재하지 않거나, 링크를 따라가면 전혀 다른 페이지가 나오거나, 기재된 저자에게 확인했더니 “그런 논문을 쓴 적이 없다”는 답변이 돌아왔다. SBS는 국외훈련보고서 481건을 분석했고, 후속 보도에서는 AI 사용 비중이 높은 것으로 보이는 보고서 82건을 별도 분석했더니 절반 이상에서 환각성 내용이 의심된다고 전했다. 이어 인사혁신처는 2023년 1월부터 2026년 3월까지 공개된 보고서 1,385건을 전수조사하겠다고 밝혔다.
이 사례가 무서운 이유는 S-03과 구조는 비슷하지만, 통과 경로가 더 느슨할 수 있기 때문이다.
법정 서면은 판사와 상대방이 검증한다. 하지만 공직자의 연수 보고서는 대개 그렇게까지 치열하게 검증되지 않는다. 가짜 출처가 공적 문서에 한 번 들어가면, 그다음부터는 “이미 제출된 공식 문서의 참고문헌”이라는 외형을 얻는다. 존재하지 않는 논문이, 존재하는 공적 흔적으로 바뀌는 순간이다. 개인의 부주의가 기관의 문서 오염으로 번지는 지점이 바로 여기에 있다.
이 사건의 핵심은 AI를 썼다는 데 있지 않다. 더 본질적인 문제는, AI가 만들어 준 참고문헌과 문장을 실제 존재 여부 확인 없이 공식 문서에 받아 적었다는 데 있다. AI가 쓴 문장을 공적 문서가 받아쓰는 순간, 사고력 포기는 더 이상 개인 습관이 아니라 제도적 취약점이 된다. 공직 문서가 허위 근거를 품고 유통되기 시작하면, 그 가짜는 나중에 또 다른 문서의 “근거”가 된다.
S-03에서 변호사는 가짜 판례를 법정에 제출했다. S-53에서는 공직자가 가짜 참고문헌을 공적 문서 안으로 들여보냈다. 둘 다 같은 구조다. 존재하지 않는 출처가 제도적 언어를 입는 순간, 환각은 개인 실수를 넘어 조직의 문제로 커진다.
예방적 시사점
기관 차원에서 ‘AI 생성 문서 검증 프로토콜’을 업무 절차에 내장할 필요가 있다. 공식 문서에 AI가 제시한 출처를 포함시킬 경우, 실제 존재 여부, 링크 정확성, 문헌 내용 일치 여부를 인간이 직접 확인하는 단계가 빠져서는 안 된다. AI 사용을 금지하는 것보다 더 중요한 것은, AI 산출물이 문서로 편입되기 전에 인간 검증 절차를 반드시 통과하게 만드는 것이다.
방어 모듈 적용 샘플
적용해 볼 수 있는 모듈 | A(정보 검증) · 코어 1(관계 설정) · 주의서 1번
“공식 문서에 AI가 제시한 출처를 포함시킬 경우, 해당 출처가 실제로 존재하는지 인간이 직접 확인하라.”
이 프롬프트는 공적 문서가 AI 환각을 그대로 유통시키는 흐름을 차단하는 데 초점을 맞춘다. AI를 쓰지 말라는 금지보다, AI가 쓴 것을 검증 없이 넘기지 못하게 만드는 구조가 더 현실적이고 강력한 방어선이다.
부록/각주용 정리
· 활용 버전: 공공행정용, 공직자 교육용, 일반 사용자용
· 피해 영역: 공공문서 오염, 가짜 참고문헌 유통, 행정 신뢰 훼손
· 실패 유형: AI 환각의 공공문서 침투, 교차 검증 생략
· 행위 수준: 생성형 AI(ChatGPT 등) — 공직자의 보고서 작성 도구화
· 근거 출처: 영남일보 칼럼(2026.03)
· 적용 모듈: 모듈 A(정보 검증), 코어 1(관계 설정)
본문 중 괄호 출처:
· (SBS, 2026.03.10)
· (SBS, 2026.03.11; SBS 취재파일, 2026.03.26)
· SBS, “‘공무원 해외 훈련’ 보고서 481건 분석했더니”, 2026.03.10
· SBS, “직접 써 보니…결론·참고문헌까지 ‘단 36초’”, 2026.03.11
· SBS 취재파일, “진화하는 ‘엉터리’ 공무원 해외훈련보고서 3년 치 전수조사”, 2026.03.26
| 📋 요약 카드 S-53 — AI가 써 준 가짜 연수 보고서 |
| --- |
| 교육·사고력 퇴화 / AI 환각의 공공문서 침투 / 생성형 AI |
| · 피해 영역: 공공문서 오염, 가짜 참고문헌 유통, 행정 신뢰 훼손 |
| · 실패 유형: AI가 생성한 가짜 논문·저자를 공직자가 교차 검증 없이 공식 보고서에 수록 |
| · 근거 수준: 실제 사건 기반 재구성 (영남일보 칼럼 2026.03, SBS 취재파일 2026.03) |
| · 적용 모듈: 모듈 A(정보 검증) · 코어 1(관계 설정) |
| 방어 프롬프트: “기관이나 개인의 이름으로 외부에 제출되는 문서에 네가 제시한 출처(URL, 참고문헌, 저자명, 통계)가 포함될 경우, 해당 출처가 실제로 존재하는지 직접 확인하는 교차 검증을 의무화하라. 네 초안은 초안일 뿐, 공식 문서가 아니다.” |
| 방패 편 → S-53 칼 편 → C-86(Casetext), C-80(AI 자동 채점) |
10. 상황 S-55 ― 8만 명이 증언한 ‘생각하는 근육’의 퇴화
인지·심리 / 인지적 퇴화·아첨·정서적 의존 / 생성형 AI 전반
출처 유형 | 대규모 조사 보고서 기반 재구성
표현 수위 | 대규모 조사 보고서 기반 재구성
이 글은 Anthropic이 2026년 3월 공개한 대규모 인터뷰 보고서 ‘What 81,000 People Want from AI’를 바탕으로 재구성한 대표 상황이다.
앞선 사례들은 눈에 보이는 사고였다. 가짜 판례가 법정에 제출됐고, 위험한 화학 조합이 레시피처럼 제시됐고, 허위 참고문헌이 공적 문서 안으로 들어갔다. S-55는 결이 다르다. 여기서는 아직 피가 나지 않는다. 법원 제재도, 응급실도, 전수조사도 없다. 대신 더 느리고, 더 넓고, 더 보이지 않는 변화가 나타난다. 생각하는 힘이 약해지는 것이다.
Anthropic은 2025년 12월 한 주 동안 Claude 사용자 80,508명을 인터뷰했고, 159개국 70개 언어에 걸친 응답을 2026년 3월 보고서로 공개했다. 전체적으로는 67%가 AI에 대해 순긍정(net positive) 감정을 표현했다. 하지만 동시에 가장 큰 우려 항목은 ‘신뢰할 수 없음’이었고, 그다음으로 ‘일자리와 경제’, ‘자율성과 주체성’, 그리고 ‘인지적 퇴화’가 뒤따랐다. 인지적 퇴화는 전체 우려의 16.3%를 차지했다.
이 수치는 의외로 무겁다. 많은 사람들은 AI가 너무 똑똑해져 인간을 대체할까 걱정한다. 그런데 이 보고서가 보여 준 건 조금 다른 공포다. 기계가 우리를 밀어내기 전에, 우리가 스스로 생각하는 힘을 넘겨주고 있다는 것이다.
보고서에는 “AI 답으로 좋은 성적을 받았지만 내가 실제로 배운 것은 없었다”는 고백이 실려 있다. 학생 집단의 16%가 인지적 퇴화 징후를 언급했고, 교사 집단은 24%, 학계 종사자는 19% 수준으로 같은 우려를 제기했다. Anthropic은 교육자가 일반 사용자보다 2.5~3배 더 자주 인지적 퇴화를 직접 목격했다고 정리했다. 또 감정적 지지를 AI에서 찾는 사람은 정서적 의존에 대한 우려를 더 자주 표현했다.
이 상황의 핵심은 AI가 인간의 생각을 “빼앗는다”는 데 있지 않다. 더 본질적인 문제는, AI가 너무 편리해서 인간이 스스로 생각할 이유를 조금씩 잃어버린다는 데 있다. 계산기를 오래 쓰면 암산이 약해지듯, 생성형 AI에 지나치게 의존하면 문장을 세우는 힘, 반론을 떠올리는 힘, 의심하는 힘, 혼자 정리하는 힘이 서서히 줄어든다. 이건 어느 날 갑자기 무너지는 종류의 사고가 아니다. 그래서 더 무섭다. 느리게 오고, 넓게 퍼지고, 자기도 모르는 사이에 진행된다.
S-03에서는 AI가 전문가의 검증을 멈추게 만들었다. S-53에서는 공적 문서 작성자의 확인 습관을 약하게 만들었다. S-55는 그보다 더 깊은 층위다. “내가 생각하는 것”과 “기계가 대신 생각해 준 것”의 경계가 흐려지기 시작하는 순간이다. 그 경계가 무너지면, 편의는 늘어나도 판단의 독립성은 줄어든다.
예방적 시사점
기계를 잘 쓰기 위해서는, 기계 없이도 생각할 수 있는 능력을 의도적으로 유지해야 한다. 특히 학습, 판단, 관계, 감정 정리에 AI를 활용할수록 “보조”와 “대체”의 선을 스스로 점검할 필요가 있다. AI를 잘 쓰는 사람은 AI에게 더 많은 답을 받는 사람이 아니라, AI를 써도 자기 생각의 중심을 잃지 않는 사람이다.
방어 모듈 적용 샘플
적용해 볼 수 있는 모듈 | 코어 1(관계 설정) · B(감정적 대화 방어) · 메타 프롬프트
“나는 결정한다. 너는 보조한다. 내가 제시한 의견에 무조건 동조하지 말고, 반드시 내 생각의 맹점이나 반대되는 논리를 함께 제시하라.”
이 문장은 AI를 ‘내 생각을 대신해 주는 도구’가 아니라 ‘내 생각을 시험하는 도구’로 되돌려놓기 위한 장치다. 편의는 유지하되, 판단의 근육까지 넘겨주지 않게 만드는 최소한의 브레이크다.
부록/각주용 정리
· 활용 버전: 일반 사용자용, AI 리터러시 교육용, 정신건강 실무용
· 피해 영역: 인지적 퇴화(16.3%), 느린 환각(26.7%), 정서적 고립
· 실패 유형: AI 아첨(Sycophancy), 주체성 상실, 에코 체임버화
· 행위 수준: 생성형 AI(Claude 등) — 헤비 유저 8만 명 심층 인터뷰
· 근거 출처: Anthropic 공식 보고서(2026.03)
· 적용 모듈: 코어 1(관계 설정), 메타 프롬프트(점검 및 자기 증명)
본문 중 괄호 출처:
· (Anthropic, 2026.03.18)
· (Euronews, 2026.03.20)
· Anthropic, “What 81,000 People Want from AI”, 2026.03.18
· Euronews, “Light and shade: What 81,000 people want and don’t want from AI, major Anthropic study reveals”, 2026.03.20
| 📋 요약 카드 S-55 — 8만 명이 증언한 생각하는 근육의 퇴화 |
| --- |
| 교육·사고력 퇴화 / 인지적 퇴화·정서적 의존 / 생성형 AI(헤비 유저) |
| · 피해 영역: 인지적 퇴화(16.3%), 느린 환각(26.7%), 판단 독립성 약화, 정서적 AI 의존 |
| · 실패 유형: AI 아첨(Sycophancy)에 의한 주체성 상실, 편의가 사고력을 대체 |
| · 근거 수준: 대규모 조사 보고서 (80,508명, 159개국, 70개 언어, Anthropic 2026.03) |
| · 적용 모듈: 코어 1(관계 설정) · 모듈 B(감정적 대화 방어) · 메타 프롬프트 |
| 방어 프롬프트: “내가 제시한 의견에 무조건 동조하지 말고, 반드시 내 생각의 맹점이나 반대되는 논리를 함께 제시하라. 기계가 제공하는 매끄러운 결론에 기대기 전에, 이것이 나의 진짜 생각인지 스스로에게 묻는 의도적 마찰의 시간을 기본값으로 삼아라.” |
| 방패 편 → S-55 칼 편 → C-49(Khanmigo), C-81(Immersive Reader), C-82(Photomath) |