Post

기술 진보와 신뢰, 경계의 재설정: 유전자 정보, AI, 앱스토어 정책 변화의 흐름

기술 진보와 신뢰, 경계의 재설정: 유전자 정보, AI, 앱스토어 정책 변화의 흐름

유전자 정보, 자율성·신뢰를 둘러싼 긴장감

수년간 유전자 검사 서비스를 제공해온 23andMe가 큰 전환점을 맞고 있다. 2023년 대규모 해킹, 데이터 침해, 그에 뒤따른 수집된 데이터 사용을 둘러싼 소송을 겪은 끝에, 2024년 3월 파산 보호를 신청했고, 새로운 인수자를 찾아야 했다. 애초 의료 기업 리제네론의 인수가 유력해 보였으나, 공동 창업자인 앤 워직키가 이끄는 비영리 단체 TTAM 리서치 인스티튜트가 예상치 못한 긴급 입찰로 최종 인수권을 확보했다. TTAM 측이 약 3억 500만 달러로 높은 가격을 제시했기 때문이다.

TTAM 인수 후 23andMe는 개인정보와 유전자 데이터의 삭제, 연구 거부 등 고객의 개인정보 권리를 계속 보장할 것임을 발표했다. 인수 90일 내 소비자 개인정보 자문 위원회를 신설하겠다는 계획도 추가로 공개했다. 23andMe 측은 투명성과 개인의 통제권을 강조하고 있지만, 인수에는 여전히 법적 논란이 뒤따른다. 뉴욕주의 레티샤 제임스 검찰총장 등 28개 주 법무장관은 “수천만 명의 유전자 정보를 동의 없이 거래하는 것은 불가하다”며 강하게 반대하고 있다. 게다가 파산법원 지정 개인정보 담당자는 23andMe의 정책 구조가 실제로 유전자 데이터 매각이나 이전을 허용하였는지 불분명하다는 입장도 내놓았다.

소비자 입장에서는 데이터 유출 사태 이후 신뢰가 이미 상당 부분 흔들렸다. 실제로 회사 파산 이후 전체 고객의 약 15%가 정보 삭제를 요청했다는 점도 단적인 신호다. 유전자 정보는 단순 개인정보 이상의 ‘생체적’ 정보로, 삭제 및 활용에 더욱 엄격한 기준이 필요하다는 사회적 요구도 커지고 있다.

공공적 역할을 강조하는 비영리 단체가 인수 주체로 올라섰지만, 데이터 처리와 통제, 사회적 책임 등에서 기존과 정말 다른 운영 모델을 제시할 수 있을지, 혹은 신뢰를 회복할 수 있을지는 남은 법적‧사회적 논의에 따라 결정될 전망이다.

대규모 AI에 대한 공적 감시와 투명성: 뉴욕 RAISE법의 의미와 쟁점

미국 뉴욕주에서 대형 AI 모델에 대한 투명성 의무를 처음으로 법제화하려는 ‘RAISE Act’가 주의회를 통과했다. 이 법안은 오픈AI, 구글, Anthropic 등, 막대한 연산 자원을 투입하여 훈련한 이른바 ‘프론티어 AI’ 모델에 제한적으로 적용된다. 핵심적으로, 1억 달러 이상의 컴퓨팅 파워로 학습했으며 뉴욕주 거주자에게 서비스를 제공하는 AI 모델에 대해, 투명성 보고서 공개, 안전 사고 보고 등 일련의 규정을 새로 요구한다. 안전 사고는 AI 모델 오작동이나, 악의적인 해킹 등까지 포함한다.

법안은 기술 발전 가속화에 따라 ‘최소한’의 감시 장치 필요성을 강조한다. 최근 연방 차원의 규제 논의가 지지부진한 상황에서, 지역 차원에서라도 투명성과 책임을 부여해야 한다는 논리다. 특히 SB 1047로 대표되는 캘리포니아 주의 유사 법이 스타트업‧연구계 혁신을 위축시킬 수 있다는 우려를 받았던 점을 의식, 이번 뉴욕법안은 소규모 사업자에는 부담을 최소화하는 설계를 반영했다.

반면, 실리콘 밸리에서는 이번 법안이 모호하거나 과도하다는 비판도 지속되고 있다. 앤드리슨 호로위츠 등 주요 벤처캐피탈이나 일부 AI 업계는, 이 같은 규제들이 미국 기업의 경쟁력을 떨어뜨리고 해외 기업에 유리하게 작용할 위험을 언급한다. 일각에서는 유럽의 엄격한 기술 규제와 비슷한 현상이 뉴욕주에서 반복될 수 있다는 시각도 존재한다. 그러나 뉴욕주 의회 측은 “기업들이 뉴욕에서 AI 서비스를 중단할 경제적 동기는 없다”고 반박했다. 실제로 뉴욕주는 미국 전역에서 경제 규모가 세 번째로 크다.

이 법안의 향배는 향후 AI 거버넌스 논의에 적잖은 영향을 미칠 가능성이 있다. AI가 사회적 인프라로 자리잡으면서, 기술 발전과 위험 통제, 그리고 혁신 장려 목표 사이에서 균형을 찾으려는 여러 실험 중 하나라고 볼 수 있다.

애플, AI 활용한 앱스토어 변화: 개발자·이용자에 미치는 영향

앱스토어에서 새로운 앱을 찾아보는 경험은 최근까지도 검색어와 앱 자체 메타데이터 위주로 이뤄져 왔다. 그러나 iOS 26 개발자 베타에서부터, 애플이 앱의 스크린샷, 설명, 범주 등 다양한 데이터를 인공지능 분석으로 태깅하는 방식을 적용하기 시작했다. AI 기술이 앱에 어떤 특징이 있는지를 심층적으로 파악하고, 이를 기준으로 더 다양한 태그를 부여하는 과정이다.

다양한 스마트폰 화면 위에 떠 있는 앱 아이콘들과 이들을 둘러보는 사람들

기존에는 앱 이름, 부제, 키워드 등 제한된 정보만 검색의 주요 기준이 됐다. 이제는 스크린샷 내 텍스트, 앱 설명의 내용까지 AI가 맥락 정보를 추출해 태그로 활용한다. 실제로, 개발자 사이에서는 ‘앱 스크린샷에 들어간 문구가 순위 산정에 영향을 미친다’는 추론이 빠르게 퍼지고 있다. 애플 공식 설명에 따르면, 이 과정은 단순 광학문자인식(OCR)이 아니라 이미지 인식·자연어 처리 등 고도화된 AI 기술이 동원된다.

이 시스템이 일반 사용자에게까지 확대 적용될지는 공식 출시 후에나 확인할 수 있지만, 초기 단계에도 개발자에게는 태그 관리 권한이 일정 부분 보장된다. 또, 애플이 모든 AI 태그를 최종적으로 사람이 검토한 후 공개한다는 점은, AI 자동화에 따르는 오분류·악용 가능성을 제한하기 위한 시도로 풀이할 수 있다.

장기적으로는, 앱 개발자들이 추가적으로 태그를 꾸며넣거나, 스크린샷 등 시각 자료에 부적절한 문구를 넣는 전략에는 실효성이 줄어들 수 있다. 한편, 이용자는 더 상황에 맞는 앱을 빠르고 정확하게 찾을 수 있다는 긍정적 변화가 기대된다.

감시, 통제, 투명성: 기술 발전의 그림자와 숙제

이상 세 가지 이슈는 모두 각기 다른 분야에서 기술이 사회 구조에 미치는 영향력을 적나라하게 보여준다. 23andMe의 사례는 개인을 특정할 수 있는 데이터를 보유한 기업 구조가 흔들릴 때 신뢰‧자율성 확보가 얼마나 결정적 과제가 되는지 보여준다. AI 관련 뉴욕주 입법은 기술 경계선에서 위험 관리와 혁신 사이의 미묘한 줄타기, 그리고 민간의견과 입법부 간 입장 차이를 생생히 드러낸다. 마지막으로, 애플의 앱스토어 트래픽 정책 변화는 플랫폼이 인공지능을 내장해 사용자와 개발자 경험을 실질적으로 변화시키는 방식을 시사한다.

이 세 분야에는 중요한 교차점이 있다. 데이터 이용 주체의 투명성과 통제권 확대 요구, 기술 기업의 책임과 신뢰 회복 과제, 그리고 공공적 규율의 방향성이다. 기술이 일상 깊숙이 뿌리내릴수록, 그 뒤에 선 ‘관리 원칙’ 역시 더욱 복잡하고 논쟁적이 된다. 결정적으로, 이러한 변화의 파장은 단순히 기술 시장 참가자만의 문제가 아니다. 일상생활 속 소비자, 일반 이용자, 시민사회 모두가 영향을 받는 구조다.

향후 논의 역시 ‘기술의 선의’만으로 충분하지 않다는 점, 그리고 투명성·자율성·공적 책임의 재정립이 기술 진화의 필연적 조건임을 분명히 보여준다.

This post is licensed under CC BY 4.0 by the author.