AI 신뢰를 노린 신종 사기, 플랫폼 책임은 없나
2025년 12월 15일 | 조중동e뉴스=김혜빈 기자
생성형 인공지능(AI) 서비스 이용이 일상화되면서, 이를 악용한 ‘가짜 AI 서비스’ 피해가 급증하고 있다. 최근 ‘챗GPT’를 사칭한 유사 사이트에 접속해 유료 결제를 했다가 피해를 입었다는 사례가 잇따르자, 한국소비자원이 공식 경고에 나섰다.
문제는 이 같은 피해가 단순한 개인의 부주의를 넘어, AI 신뢰 자체를 흔드는 구조적 위험으로 번지고 있다는 점이다.
■ “공식인 줄 알았다”… 검색 광고가 만든 착시
피해자들은 대부분 포털 검색 과정에서 상단에 노출된 광고를 클릭했다.
사이트에는 ‘ChatGPT’라는 명칭과 로고, 실제 서비스와 유사한 화면 구성까지 갖춰져 있어 일반 이용자가 공식 서비스로 오인하기 쉬운 구조였다.
결제 이후에야 해당 서비스가 공식 AI 플랫폼이 아니라는 사실을 알게 됐지만, 이미 결제는 완료된 뒤였다. 환불 요청은 거절되거나 연락이 두절되는 경우가 많았다.
한국소비자원은 “최근 유사 AI 서비스 관련 상담이 증가하고 있다”며 “공식 홈페이지 주소 확인과 검색 광고 클릭 시 각별한 주의가 필요하다”고 밝혔다.
■ 단순 사기 넘어선 ‘AI 신뢰 훼손’ 문제
전문가들은 이번 사태를 단순한 온라인 사기 사건으로만 봐서는 안 된다고 지적한다.
AI는 의료·법률·교육·금융 등 사회 전반으로 빠르게 확산되고 있다. 이런 상황에서 가짜 AI 서비스가 난립하면, 이용자들은 기술 자체에 대한 불신을 갖게 된다.
결국 피해는 특정 기업이 아니라, AI 산업 전체와 사회적 신뢰 구조로 확산된다.
■ 플랫폼 책임, 어디까지인가
논란의 핵심은 검색 포털과 플랫폼의 책임이다.
일반 이용자에게 검색 상단 광고는 사실상 ‘검증된 정보’처럼 인식된다. 하지만 실제로는 광고주에 대한 실질적 검증이 미흡한 경우가 많다.
전문가들은 “AI처럼 공신력이 중요한 서비스의 경우, 광고 단계부터 보다 엄격한 검증 기준이 필요하다”며 “플랫폼 역시 책임에서 자유로울 수 없다”고 지적한다.
■ “지금 막지 않으면 더 큰 피해 온다”
이번 사태는 시작에 불과하다는 경고도 나온다.
가짜 AI가 의료 상담, 투자 자문, 법률 조언 영역으로 확대될 경우 피해는 단순 금전 손실을 넘어 생명·재산 문제로 이어질 가능성도 배제할 수 없다.
정부 차원의 가이드라인 정비, 플랫폼의 광고 검증 강화, 그리고 언론의 지속적인 감시가 동시에 작동해야 한다는 목소리가 커지고 있다.
AI는 편리함이 아니라 신뢰 위에서만 작동하는 기술이다.
그 신뢰가 무너질 때, 피해는 개인을 넘어 사회 전체로 확산된다.
팩트로 세상을 읽고, 제도로 사회를 바꾼다. — 조중동e뉴스
<저작권자(c) 조중동e뉴스, 무단 전재·재배포, AI 학습 및 활용 금지>