인공지능(AI) 엄청난 기회이면서 위험에 직면해 있다.펜타곤 폭발 가짜 이미지는 AI의 어두운 면을 보여주는 단순하고 직접적인 예시[내외신문=전용현 기자] 미국 국가 안보 기관은 인공지능(AI)이 기술 환경의 중심이 되면서 엄청난 기회와 함께 위험에 직면하고 있다는 내용으로 최근 세인트루이스에서 개최된 GEOINT 2023 컨퍼런스에서 이러한 문제들이 논의되었다.
인공지능(AI)의 부상과 활용이 미국 국가 안보 기관에 대해 기회와 위험을 동시에 가져다주고 있다고 언급하고 논의 돼었는데, GEOINT 2023 컨퍼런스에서 진행된 패널 토론에서는 AI 도구와 머신 러닝을 통해 수천 개의 위성 이미지를 분석하고 통찰력을 도출하는 가치에 대해 이야기되었지만, 동시에 AI의 어두운 면과 잘못된 정보로 인한 위험을 경계해야 한다는 의견도 나왔다.
특히 SNS에서 화제가 된 펜타곤 폭발 가짜 이미지를 예로 들어 AI가 얼마나 쉽게 조작될 수 있는지와 데이터의 무결성에 대한 중요성을 강조하고 있다. NGA(National Geospatial-Intelligence Agency)의 관계자들은 데이터의 신뢰성과 안전을 최우선 과제로 삼아야 한다고 말하고 있다.
민간 부문과 정부 간의 협력을 강조하며 데이터 무결성을 보장하기 위해 협력이 필요하다고 언급하고 있다. 또한 기관 내에서 새로운 기술을 활용하고 위험을 이해하기 위해 인력을 어떻게 준비할 것인지에 대한 문제에 대해 논의되었다.
따라서 인공지능의 무서운 이유에 대한 사례는 AI가 조작될 수 있는 가능성과 데이터의 신뢰성 문제가 주요 요소로 언급되었으며, 대책으로는 데이터 무결성을 위한 협력과 인력 준비에 대한 중요성이 강조되고 있다. 한편, 국가 지리공간 정보국(National Geospatial-Intelligence Agency, NGA)의 관계자는 패널 토론에서 AI 도구와 머신 러닝의 가치를 강조하며, 천 개 이상의 위성 이미지를 분석하고 중요한 통찰력을 신속하게 도출하기 위해 이러한 기술들을 높이 평가했다. 그러나 그들은 동시에 AI의 어두운 면과 잘못된 정보로 인한 위험을 경고했다.
NGA의 소스 운영 및 관리 이사인 제임스 그리핏(James Griffith)은 "지리공간 정보의 미래는 더욱 신속한 인공지능의 활용에 있다"고 말했다. 그는 NGA가 민간 기관과 함께 국가 안보를 지원하기 위해 데이터 수집, 분석 및 배포의 역할을 맡고 있다고 강조했다.
NGA의 분석 기술 사무소 책임자 필립 세이지(Philip Sage)는 딥페이크 시대에서 정보 제품의 안전을 최우선 과제로 삼아야 한다는 인식이 증가하고 있다고 말했다. 세이지는 22일에 편집된 가짜 이미지가 블룸버그 뉴스와 관련된 인증된 트위터 계정에서 공유되면서 혼란과 주식 시장 하락이 발생했던 사례를 언급했다. 이 사례는 AI가 잘못된 정보를 악용하는 위험을 보여준다.
세이지는 "그 트윗은 무서웠다"며 이미지가 얼마나 쉽게 조작될 수 있는지를 강조했다. 그는 "데이터의 신뢰성은 우리가 잘 다루는 분야다. 하지만 AI는 시스템을 시험하게 만듭니다"라고 말했다.
펜타곤 폭발 가짜 이미지는 AI의 어두운 면을 보여주는 단순하고 직접적인 예시에 불과하다고 말한 세이지는 위조 데이터가 덜 명확하고 감지하기 어려운 경우에도 문제가 발생할 수 있다고 지적했다. 그는 "우리는 편견이 실제로 이러한 모델에 도입되고 있는지를 결정하는 방법을 찾기 위해 노력하고 있다. 편견이 도입되고 있다면 어떻게 빠르게 발견하고 제거할 수 있을까요?" 라고 말했다. 이는 정보 전문가들에게 새로운 도전과제를 제기하고 있다.
NGA의 수석 고문 제이 모더(Jay Moeder)는 꾸며낸 펜타곤 폭발 이미지는 앞으로 발생할 수 있는 사건의 암시에 불과하다고 말했다. 그는 위성 이미지의 잘못된 분석으로 이어질 수 있는 작은 실수들에 대해 인식해야 한다고 강조했다.
데이터 무결성을 보장하기 위해 NGA가 민간 부문과 협력해야 할 필요성에 대해 모더는 "우리가 함께 직면하는 과제 중 하나는 데이터의 무결성입니다"라고 말했다. 또한 NGA는 새로운 기술을 활용하고 위험을 이해하기 위해 인력을 어떻게 준비할지에 대한 고민을 해야 하는데, 이는 NGA에서의 AI의 급속한 성장이 가져오는 큰 문제 중 하나다.
NGA의 데이터 및 디지털 혁신 담당 이사 마크 문셀(Mark Munsell)은 "우리 커뮤니티에서는 이미지에 대한 대규모 언어 모델을 구축하는 데 사용되는 기술을 배우고 있으며, 컴퓨팅 파워의 확장은 빠르게 이뤄질 것"이라고 말했다. 그는 AI의 성장으로 인해 "슈퍼 분석가"라고 할 수 있는 이러한 모델을 통해 이전에 볼 수 없었던 수준의 정밀도로 이미지에서 관심 대상을 식별하는 수요가 생길 것이라고 전망했다. 그러나 그러한 분석가가 신뢰할 수 있는 데이터를 사용하는지 확인하는 것이 더욱 중요하다는 점을 강조했다.
이러한 문제들을 해결하기 위해 데이터 무결성, 편견 탐지, 인력 준비 등 다양한 측면에서 노력해야 한다고 NGA 관계자들은 강조하고 있다. 또한 국가 안보 기관뿐만 아니라 민간 부문과의 협력과 업계 간의 협업도 필요하다고 강조하고 있다. AI가 제공하는 기회와 동시에 발생할 수 있는 위험에 대한 인식과 대비가 더욱 중요해지고 있다.
이 기사 좋아요
<저작권자 ⓒ 내외신문 무단전재 및 재배포 금지>
시민포털 지원센터 대표
내외신문 광주전남 본부장 월간 기후변화 기자 사단법인 환경과미래연구소 이사
댓글
인공지능 관련기사목록
|
많이 본 기사
|