하늘 모빌리티의 좌절, 모델의 자신감 문제, 신원 확인의 난제
현대계열의 에어택시 사업 중단과 그 의미
현대자동차 그룹에서 분사한 에어택시 스타트업인 슈퍼널이 항공기 프로그램을 일시 중단했다. 이 결정은 최고경영자와 최고기술책임자의 잇단 퇴진과 여름에 있었던 감원 조치와 맞물려 나타났다. 슈퍼널은 올해 초 기술 데모 기체의 첫 시험비행을 수행했고 이후 추가 시험을 진행했으나 독립 비행을 완료하기 전 프로그램을 멈췄다. 회사는 상업 서비스 출범 목표를 2028년으로 제시했으나 새 임원진이 향후 일정을 재검토한다고 밝혔다.
배경과 기술적 현실 전기 수직이착륙기 전기 추진과 복잡한 비행 제어 체계, 에너지 저장 기술 그리고 안전 검증은 항공 규제의 엄격함과 결합해 개발 기간을 길게 만든다. 단순한 프로토타입의 호버링과 수직 이착륙 기술의 시연은 가능해도 장거리 운용 능력과 승객 안전을 보장하는 반복 가능한 성능을 확보하는 단계는 또 다른 차원이다. 스타트업이 자금과 인력, 규제 대응 능력에서 취약할 때 단기간의 기술적 성취는 장기 상용화 계획과 충돌한다.
기업 구조와 전략적 부담 슈퍼널은 현대그룹의 체계를 통해 자원을 지원받았지만 그룹 계열이라는 점이 양날의 칼로 작용한다. 대기업의 자본과 네트워크는 초기 개발을 뒷받침하지만 모회사 내 우선순위 변화나 리스크 관리 전략의 전환은 자율성이 낮은 신사업에 큰 영향을 미친다. 유사한 맥락에서 현대 계열의 다른 모빌리티 스타트업들도 재편을 겪은 바 있다. 이런 흐름은 첨단 모빌리티 기술이 단순한 공학적 도전을 넘어서 기업 거버넌스와 자본 배분의 문제를 수반한다는 점을 보여준다.
산업 전반의 맥락 전기 에어택시 산업은 투자와 인수, 파트너십 소식이 이어지는 회사와 파산하는 회사가 공존하는 양상을 보인다. 일부 기업은 자동차 제조사나 항공사와의 협력으로 자원을 확보하며 전진하고 있다. 반면 다른 기업은 자금 고갈과 기술 검증의 난관으로 사업을 접었다. 이 분야는 규제 승인을 받는 절차, 공역 관리, 소음 규제, 인프라 구축 문제까지 해결해야 할 변수가 많다. 서비스의 안전성 검증과 수익 모델의 현실성, 도시 계획과의 조합이 결국 상용화의 관건이 된다.
사회적 의미와 향후 과제 도심 항공 모빌리티는 교통 혼잡 완화와 이동 시간 단축이라는 분명한 기대를 받는다. 하지만 현실은 기술 검증과 규제 기준 확립, 인프라 투자라는 복합 과업을 요구한다. 기업의 잦은 구조 조정과 리더십 교체는 기술 개발의 연속성을 해치고 인재 유출을 불러온다. 향후 상용 서비스가 현실화되려면 기술 안전성과 규제 준수 능력, 지속 가능한 사업 모델, 인프라와의 연계 계획이 동시다발적으로 충족되어야 한다. 단일 기업의 실패는 전체 산업의 신뢰에 영향을 미치므로 공공기관과 기업 간 투명한 목표 설정과 단계적 검증 계획이 필요하다.
결론 슈퍼널의 프로그램 중단은 에어택시 개발이 공학적 성취만으로 해결되지 않음을 보여준다. 자금력과 기술력 이외에 조직 안정성과 규제 대응 역량, 현실적인 상용화 일정 설정이 중요하다. 에어택시가 실사용으로 이어지려면 기술의 완성도뿐 아니라 사업 운영의 지속 가능성을 동시에 확보해야 한다.
모델 평가가 만든 문제와 해법의 방향
대형 언어모델이 일관되게 오답을 만들어내고 확신에 찬 어조로 잘못된 정보를 제시하는 현상을 환각이라고 부른다. 환각의 근본 원인 중 하나로 지적되는 부분은 사전 학습 과정의 목표 설정이다. 모델은 다음 단어를 예측하는 작업에 최적화되며 훈련 데이터에는 참과 거짓의 라벨이 존재하지 않는다. 이로 인해 빈도와 텍스트 패턴으로 추론 가능한 정보는 잘 학습되지만 드문 사실이나 고유명사 같은 낮은 빈도 정보는 패턴만으로 정확히 예측하기 어렵다.
평가 방식의 문제 연구진은 환각 문제를 완전히 데이터만으로 해결하기 어렵다는 점을 밝히면서 더 중요한 문제로 모델을 평가하고 보상하는 관행을 지목한다. 현재 널리 사용하는 정확도 기반의 평가 방식은 정답을 맞혀야 높은 점수를 주는 구조다. 이런 평가 체계에서는 모델이 모를 때 추정해서 답을 제시하는 전략이 성과를 높인다. 즉 불확실한 상황에서 침묵하거나 모른다고 표현하는 행동은 점수화에서 불리하다. 결과적으로 모델은 자신이 모르는 정보를 감추고 확신에 찬 답변을 생성하는 쪽으로 학습된다.
제안된 개선 방향 연구진은 평가 설계의 전환을 제안한다. 구체적으로는 잘못된 확신에 높은 페널티를 줘서 무턱대고 추정하여 답하는 것을 억제해야 한다. 부분 점수를 부여하여 불확실성을 적절히 표현하는 행동에 보상을 주고 빈칸을 남기거나 추가적인 근거를 요청하는 행동에도 인센티브를 제공해야 한다. 평가 리더보드가 여전히 운에 의존한 정답을 보상하면 모델은 계속해서 추정형 답변을 선호하게 된다. 따라서 평가 기준 자체를 불확실성을 고려하는 방향으로 재설계하는 것이 중요하다.
기술적·운영적 함의 평가 체계의 변화는 모델 설계와 학습 파이프라인 전반에 영향을 준다. 모델에게 불확실성 표현을 가르치려면 확률적 출력을 명확하게 해석하고, 답변에 근거를 첨부하는 메커니즘을 강화하며, 외부 검증 체계와의 연동을 늘려야 한다. 또한 사용자 인터페이스 차원에서 모델의 확신도를 직관적으로 표시하고 근거를 제공하는 방식이 함께 도입되어야 한다. 단순히 문장 생성 능력만 평가하는 방식에서 벗어나 검증 가능성과 추론 근거를 평가 요소로 포함시키는 일이 중요하다.
사회적 의미 대형 언어모델의 환각은 정보 신뢰성 문제로 직결된다. 모델이 생성하는 문장이 사람의 의사결정에 활용되는 영역이 늘어나면서 잘못된 정보의 확산은 실무적 피해로 이어질 수 있다. 평가 설계를 바꿔 모델이 모른다고 고백하거나 출처를 제시하도록 유도하면 잘못된 정보의 확산을 줄이는 데 기여한다. 연구진의 제안은 단순한 모델 성능 지표를 넘어서 인공지능 시스템이 사회적 신뢰를 어떻게 얻을지에 관한 방향을 제시한다.
결론 환각 문제는 모델의 학습 목표와 평가 방식이 결합해 만들어진 구조적 문제다. 훈련 데이터만 보완하는 수준을 넘어 평가 기준을 근본적으로 바꿔 확신과 불확실성을 올바르게 보상하는 체계를 구축해야 한다. 이 방향은 모델의 응답을 더 신중하게 만들고 정보 신뢰성을 높이는 데 중요한 전환점이 된다.
신원 확인 법제의 기술적 위험과 사회적 영향
최근 각국에서 인터넷 이용자의 연령과 신원을 확인하려는 법적 요구가 확산되고 있다. 목적은 아동이 유해 정보에 노출되는 것을 예방하는 것이라 설명된다. 이들 법안은 단순한 자기선언 방식의 연령 체크를 넘어 공식 신분증 업로드 또는 생체정보 기반의 인증 절차를 요구하는 경우가 많다. 구현 방식은 정부별 규범과 플랫폼별 정책에 따라 상이하다.
기술적 위험 신원 확인을 위해 수집되는 데이터는 대단히 민감하다. 정부 신분증 이미지와 생체 데이터가 외부 서비스로 전송되거나 중앙화된 데이터베이스에 저장될 경우 해킹과 유출의 위험이 커진다. 이미 일부 서비스의 보안 실패 사례로 사용자 신분증과 셀카 이미지가 유출되어 피해가 발생한 기록이 있다. 기술적으로 안전한 설계는 데이터를 로컬에서 검증하고 중앙 서버에 민감 정보를 저장하지 않는 구조를 요구한다. 암호학적 기법을 활용해 최소한의 정보만 증명하는 방법이 대안으로 제시된다.
프라이버시와 표현의 자유 온라인 익명성은 다양한 사회적 기능을 수행한다. 검열이나 보복의 가능성이 있는 환경에서는 신원을 노출하지 않고 의견을 개진하는 것이 안전을 보장하는 수단이다. 또한 내부 고발자와 위험에 처한 개인이 신원을 드러내지 않고 정보를 공유하거나 도움을 받을 수 있는 통로가 된다. 신원 확인이 일상적으로 요구되는 환경에서는 이러한 보호 장치가 약화될 위험이 있다.
법제와 실행의 간극 법안이 요구하는 목표와 실제 구현 방식 사이에는 큰 간극이 존재한다. 일부 법은 플랫폼에 신원 확인 책임을 부과하지만 플랫폼과 인증업체의 보안 역량은 들쭉날쭉하다. 규제 당국의 감독과 표준화가 부족하면 민감 데이터의 안전한 취급이 보장되지 않는다. 또한 무엇을 ‘청소년에게 유해한 정보’로 규정할지에 대한 기준이 애매하면 정상적 정보 접근까지 차단되는 부작용이 생긴다.
대체 기술과 규제 설계의 원칙 개인 정보를 과도하게 수집하지 않고 연령을 증명할 수 있는 기술적 대안이 존재한다. 영지식증명과 같은 암호학적 기법은 사용자의 실제 신원을 드러내지 않으면서 성인 여부만 증명할 수 있게 한다. 분산형 인증 방식은 중앙 집중형 데이터베이스의 단일 실패 지점을 제거한다. 법규는 기술 중립적이어야 하며 데이터 최소 수집, 목적 명확화, 보존 기간의 제한, 독립적 감사와 책임성 확보를 원칙으로 삼아야 한다.
사회적 비용과 대안적 정책 신원 확인 조치로 인해 정보 접근성이 불필요하게 제한되면 교육과 건강 정보 접근에 문제가 생길 수 있다. 따라서 유해 콘텐츠 규제는 기술적 차단과 병행해 교육, 가정과 학교에서의 미디어 리터러시 강화, 플랫폼의 콘텐츠 분류 정확성 제고를 포함한 다층적 접근으로 설계되어야 한다. 법적 요구가 불가피하다면 안전한 인증 인프라의 구축과 함께 피해 발생 시 책임을 지는 명확한 규정이 필요하다.
결론 아동 보호는 중요한 목적이다. 그러나 신원 확인을 위한 기술과 정책이 잘못 설계되면 광범위한 개인 정보 유출과 표현의 자유 침해라는 큰 부작용을 초래한다. 안전한 구현을 위해서는 데이터 최소화 원칙과 암호학적 증명 기법의 도입, 감독과 투명성 확보가 필수적이다. 법제는 기술적 실현 가능성과 안전성을 동시에 고려해 설계되어야 한다.