이슈

AI 딥페이크 영상, 이국종 병원장 사칭… 노년층 현혹되는 '가짜 건강 정보'의 덫

pmdesk 2026. 3. 27. 14:42
반응형

AI 딥페이크, 유명인 사칭으로 노년층 현혹

최근 유튜브에서 이국종 국군대전병원장을 사칭한 인공지능(AI) 딥페이크 영상이 확산되며 심각한 사회적 문제로 대두되고 있습니다. 특히 영상의 진위를 판별하기 어려운 노년층이 이러한 가짜 건강 정보를 사실로 받아들이는 사례가 빈번하게 발생하고 있어 주의가 요구됩니다지난 20일 개설된 유튜브 채널 '이국종 교수의 조언'은 이 병원장의 사진과 AI로 흉내 낸 목소리를 사용하여 췌장암, 심장질환 등 다양한 질환 관련 정보를 제공하고 있습니다. 개설 일주일 만에 4만 명 이상의 구독자와 100만 회 이상의 누적 조회수를 기록하며 빠르게 확산되었습니다.

 

 

 

 

검증되지 않은 정보, 생명 위협하는 '잘못된 응급처치'

문제는 해당 채널에서 제공하는 건강 정보의 상당수가 의학적으로 검증되지 않았다는 점입니다. 예를 들어, '심장마비가 혼자 있을 때 오면, 이 10초를 모르면 죽습니다'라는 제목의 영상에서는 심장마비 발생 시 잘못된 응급처치법을 제시하고 있습니다. 심장마비가 의심될 경우 가장 중요한 것은 즉시 119에 신고하고 신속하게 의료기관으로 이송되는 것입니다. 잘못된 정보는 생명을 위협할 수 있는 치명적인 결과를 초래할 수 있습니다.

 

 

 

 

노년층의 '묻지마' 신뢰, AI 영상 판독의 어려움

AI 영상 판독이 어려운 노년층 구독자들 사이에서는 이 채널을 실제 이 병원장이 운영하는 것으로 오인하는 경우가 많습니다. '78세로 혼자 사는 협심증 환잔데 교수님 말씀 너무 감사하다', '혼자 사는 노인들께 정말 중요한 말씀 해주셨다'와 같은 댓글은 이러한 오인을 단적으로 보여줍니다하지만 온라인 커뮤니티에서는 'AI로 목소리를 따라 한 영상이다', '노년층이 속기 쉬운 형태'라는 비판적인 지적이 끊이지 않고 있습니다.

 

 

 

 

채널 운영자의 추가 홍보, '가짜 정보' 확산 가속화

이러한 논란 속에서도 채널 운영자는 '건강에 대한 지식을 여러분과 나눌 수 있어 매우 기쁘다', '앞으로도 채널을 많이 응원해 달라'는 게시물을 올려 추가적인 홍보를 이어가고 있습니다이는 검증되지 않은 가짜 건강 정보가 더욱 광범위하게 확산될 수 있다는 우려를 낳고 있습니다AI 기술의 발전과 함께 가짜 정보에 대한 경각심을 높이고, 특히 취약 계층을 보호하기 위한 사회적 노력이 시급합니다.

 

 

 

 

AI 딥페이크, 노년층의 '믿음'을 악용하다

AI 딥페이크 기술을 이용한 유명인 사칭 가짜 영상이 노년층을 대상으로 확산되고 있습니다. 검증되지 않은 건강 정보와 잘못된 응급처치법은 생명을 위협할 수 있으며, AI 영상 판독의 어려움으로 인해 피해가 가중되고 있습니다. 사회적 관심과 보호 대책 마련이 시급합니다.

 

 

 

 

AI 가짜 영상, 무엇이 문제일까요?

Q.AI 딥페이크 영상이란 무엇인가요?

A.AI 딥페이크 영상은 인공지능 기술을 사용하여 특정 인물의 얼굴이나 목소리를 합성하여 실제처럼 보이거나 들리게 만드는 영상입니다. 이를 악용하여 유명인을 사칭하거나 허위 정보를 유포하는 데 사용될 수 있습니다.

 

Q.노년층이 AI 가짜 영상에 취약한 이유는 무엇인가요?

A.노년층은 디지털 기기 및 AI 기술에 대한 이해도가 상대적으로 낮을 수 있으며, 신뢰하는 인물의 정보를 무비판적으로 수용하는 경향이 있을 수 있습니다. 또한, 영상의 진위를 판별하는 데 어려움을 느낄 수 있습니다.

 

Q.가짜 건강 정보로부터 자신을 보호하려면 어떻게 해야 하나요?

A.의학적으로 검증되지 않은 건강 정보는 반드시 신뢰할 수 있는 의료 전문가나 공신력 있는 기관을 통해 재확인해야 합니다. 특히 유튜브 등 온라인 플랫폼에서 접하는 건강 정보는 비판적인 시각으로 접근하는 것이 중요합니다.

 

 

 

 

 

 

반응형