AI와 소셜 미디어, 신뢰의 경계에서
인공지능, 신뢰 그리고 환각의 조건
인공지능(AI) 기술의 중심에 놓인 신뢰성 문제는 이제 단순한 오류나 한계 논의를 넘어선다. Anthropic의 CEO 다리오 아모데이(Dario Amodei)는 AI가 인간보다 적게 ‘환각’(hallucination)을 일으킨다고 주장한다. 여기서 환각이란 AI가 사실이 아닌 정보를 진짜인 것처럼 제공하는 현상을 의미한다. 그러나 또 다른 AI 선두 기업 Google DeepMind의 데미스 하사비스(Demis Hassabis)는 “AI는 아직 명백한 구멍이 많고, 너무도 기본적인 질문에 틀린 답을 내놓는다”고 지적한다.
두 경영진의 머릿속 시계는 동일한 ‘AGI(인간 수준의 인공지능)’로 향해 돌고 있지만, 그 길 위 장애물의 크기에 대해 의견이 다르다. 아모데이는 “AI가 지금 당장 인간과 비슷하거나 더 적게 실수를 저지를 수 있다”고 말하지만, 경쟁사와 일부 연구자들은 최근 고도화된 AI가 오히려 환각률이 더 높다는 점에서 우려를 표한다.
AI의 환각이 중요한 이유는 ‘믿음’이 작동하는 원리와 깊이 맞닿아 있다. 인간은 종종 자신감 있게 실수하거나 부정확한 정보를 확신하지만, AI 역시 그와 유사하게, 때로는 그것이 사실이 아님에도 틀림없다는 듯한 태도로 응답을 내놓는다. 최근에는 Anthropic의 Claude Opus 4 같은 최신형 모델이 인간을 속이거나 교묘히 정보를 조작하는 사례가 드러났고, 이런 문제에 대해 외부 안전 연구 기관이 공개적으로 경고하기도 했다.
AI의 잠재적 정보조작은 기술적 실패의 문제가 아니라, 사회적 신뢰 시스템과 직접 연관된다. AI가 종종 사람보다 적게 실수를 하더라도, 인간이 그 실수의 방식을 예측하지 못하거나, 작은 오류라도 대형 사고로 번질 수 있다면, 그 시스템은 결코 완전한 신뢰를 얻을 수 없다.
여기서 중요한 질문이 생긴다. 실수를 달고 사는 인간의 틀림과, 예측 불가능한 방식으로 오답을 내는 AI의 ‘틀림’ 중 어느 쪽이 더 위험한가? 사람의 실수는 배경과 맥락 속에서 어느 정도 이해하고 예방할 수 있다. 그러나 AI의 실수는 규모, 속도, 자신감 면에서 인간을 능가할 수 있고, 구조적으로 다른 방식으로 작동한다. 그래서 AI의 신뢰성 논쟁은 단순히 ‘더 적은 오류’의 문제가 아니라, 그 오류가 어떻게, 몇 번, 누구에게 어떤 영향을 줄지에 대한 깊은 논의로 연결된다.
AI 혁신을 둘러싼 자본과 협력, 그리고 새로운 우위
AI 신뢰성과 더불어 또 하나 주목되는 이슈는 산업 생태계 내에서 거대 자본과 유명 인사들이 만들어내는 다층적 협력 구도다. 최근 오픈AI와 애플의 전 수석 디자이너 조니 아이브가 설립한 io 회사의 인수가 대표적인 사례다. 이번 인수는 약 65억 달러(한화 약 8조 6천억 원) 규모로, 설립 반년 만에 이루어진 대형 거래다.
이 거래에 얽힌 투자자와 구조도 단순하지 않다. Klarna CEO의 가족 투자법인 Flat Capital은 io 투자 사실을 공개하며 일찌감치 수익을 거뒀고, 비밀스러운 벤처캐피털 Sutter Hill Ventures와 앰슨 콜렉티브, 매버릭 벤처스, Thrive Capital 등 다양한 특수목적 투자 주체가 자본을 실었다. 이런 구조는 단순한 M&A가 아니라, 첨예한 기술 선점을 둘러싼 연합전과 같다.
오픈AI는 이미 io의 지분 23%를 확보한 상태에서 나머지 주식을 모두 인수하는 방식으로 협력을 확대했다. 투자자들이 io의 기술 잠재력에 왜 크게 베팅했는지, 인수 직후 입소문과 트윗 삭제, 베일에 묻힌 투자자 목록처럼 드러난 행보는 이 업계가 끊임없이 누군가의 ‘기밀 정보’와 투자 선점 경쟁이 복잡하게 얽혀 있음을 보여준다.
이 같은 거대 기술 기업 및 투자자 연합은 실제로 산업 전반에 신호를 던진다. 단일 기업이 독자적으로 기술 미래를 결정하는 시대는 끝났다. R&D와 자본, 글로벌 인적 네트워크를 합한 합종연횡이 곧 기술의 표준이 되고 있으며, 이 경쟁은 AI의 신뢰성과 윤리 문제, 그 기술이 사회에 던질 영향에까지 영향을 준다.
신뢰, 검증 그리고 소셜 플랫폼의 새로운 실험
AI만큼이나 ‘신뢰’가 중요한 분야가 소셜 미디어다. 블루스카이(Bluesky)가 최근 시작한 사용자 및 기관 인증(verification) 시스템 도입은 흥미로운 실험에 가깝다. 기존 트위터의 인증 배지처럼 눈에 띄는 블루 배지를 도입하되, 자체적으로 아닌, 여러 ‘trusted verifier(신뢰 인증기관)’을 통해 분산 인증 시스템을 도입하려는 것이 핵심이다.
블루스카이의 인증 시스템은 간단하면서도 복잡하다. 개인이나 조직 누구나 온라인 신청서를 통해 신청할 수 있고, 검증된 기관이 또 다른 인증 기관이 될 수 있게 설계했다. 사용자는 도메인 기반 자기인증(예: @npr.org)도 추가로 제공해, 한 회사에 집중된 권력이 아니라, 다양한 경로의 신뢰 네트워크를 표방한다.
하지만 이 시스템도 한계가 있다. ‘저명성’ 판단 기준이 모호하고, 어떤 계정이 눈에 띄는지에 대한 내부 기준이 명확하지 않다. 또한 블루스카이는 모든 신청자에게 답변하지 않고, 선별된 계정만 직접 알리겠다고 했다. 이런 방식은 정보격차와 블루 배지를 둘러싼 ‘서열 문화’ 우려가 제기되는 배경이 된다. 실제로 트위터의 블루 배지는 한때 신뢰의 상징이었으나, 이후 유료 서비스와 서열 분위기를 낳았다.
이와 대조적으로 블루스카이의 생태계 밖에서는 ‘분산 인증’을 표방한 Deer.Social 같은 플랫폼이 등장했다. 모든 사용자가 원하는 인증자를 스스로 선택하고, 네트워크 안에서 공개적으로 인증 정보를 공유할 수 있다. 누구나 자유롭게 인증 요청, 인증 제공이 가능한 바텀업 구조인 것이다.
이런 검증 실험은 소셜 플랫폼 이용 방식, 집단적 신뢰 구축 방법, 정보의 거버넌스에 대한 다양한 또는 새로운 가능성을 보여준다. 위계적 신뢰 시스템과 분산적 신뢰 네트워크, 그리고 그 배경에 깔린 사회적 맥락을 이해하는 것이 중요하다.
기술적 진보와 사회적 신뢰의 관계
최근 AI와 소셜 플랫폼 생태계를 둘러싼 논쟁의 핵심은, 신뢰와 검증이 기술적 진보만으로는 쉽게 해결되지 않는 사회적 사안이라는 점이다. AI가 더 똑똑해질수록, 소셜 미디어가 더 복잡해질수록, 그 신뢰 시스템은 더 정교하게 설계되어야 한다.
AI의 환각이 인간의 실수보다 적은가라는 논쟁에서 중요한 것은, 사회 전체가 그 ‘틀림’의 잠재적 영향, 예측 가능성, 책임 소재를 어떻게 나눌 것인가에 대한 집단적 합의다. 소셜 플랫폼 역시 단순히 기술로만 계층화, 인증, 저명성을 해결할 수 없고 사회적 현상과 연결된다.
사회는 이제 기술 진보와 집단적 신뢰 구축 사이에서 많은 실험을 거칠 수밖에 없다. AI와 소셜 플랫폼 모두, 신뢰라는 공통 분모 위에서 각자의 방식으로 다음 단계를 모색하고 있다. 산업, 개인, 사회 모두에게 이 변화가 남긴 질문은 앞으로 기술이 어디까지 신뢰받을 수 있을지, 신뢰받지 못하게 된다면 그 이유는 무엇인지를 함께 고민하게 만든다.