목소리도 베끼는 인공지능…MS·오픈AI, 공개 망설이는 이유
생성 인공지능(AI) 열풍을 몰고 온 건 챗지피티였지만, 불씨는 오픈에이아이(AI)의 3세대 언어 모델 ‘지피티3’이었다. 기술전문매체 ‘ 에이아이엠 ’은 지피티3의 탄생을 알리며 오픈에이아이
www.hani.co.kr
OpenAI의 3세대 언어 모델인 GPT-3는 인공지능(AI) 열풍의 불씨를 당겼다. GPT-3의 강력한 언어 모델은 유익한 응용과 해로운 응용 모두에 잠재력이 있었고, 이를 공개할지 여부를 두고 논쟁이 있었다. 결국 공개된 GPT-3를 기반으로 ChatGPT가 탄생하면서 인공지능 세상이 열렸다.
4년 뒤, 마이크로소프트는 비슷한 고민을 겪었다. 2024년 7월에 공개된 인공지능 음성 모델 ‘발리2’는 3초 분량의 원본 오디오만으로도 목소리를 똑같이 복제할 수 있다. 발리2는 '인간 동등성' 테스트에서 인간보다 우수한 평가를 받았으며, 다양한 분야에서 혁신을 가져올 수 있지만, 범죄에도 악용될 수 있는 잠재력을 가지고 있다. 이에 마이크로소프트는 발리2를 연구 목적으로만 사용하고, 제품에 탑재하거나 대중에게 공개하지 않기로 했다.
OpenAI도 2024년 3월에 음성 합성 기술 연구 결과를 발표하며 공개하지 않고 미리보기만 제공하기로 결정했다. 이들은 음성 인증 보안 강화, 인공지능 음성 사용 정책 수립, 인공지능 기술의 기만 가능성을 포함한 대중 교육, 인공지능 기술 사용 시 명확한 표기 등의 조치를 먼저 이행해야 한다고 밝혔다.
인공지능 기술의 잠재적 위협과 관련해, 기업의 비공개 결정은 이해할 만하지만, 인공지능의 잠재적 위협을 기업의 자의적 결정에 맡기는 것에 대한 우려가 남는다. 지난해 11월, OpenAI 이사회와 CEO 샘 올트먼 사이의 갈등 배경에는 '안전한 인공지능'을 둘러싼 논쟁이 있었다. OpenAI는 인간 추론 능력에 근접한 새로운 인공지능 모델 '스트로베리'를 준비 중이며, AGI(범용 인공지능)에 도달하는 5단계 과정 중 2단계인 '추론자' 단계에 있다고 밝혔다.
기술 발전과 윤리 사이에서 기업의 결정은 항상 인류의 보편적 이익에 부합하지 않을 수 있다. 좋은 기술 기업이 윤리적 기업이 될 수 있는지에 대한 의문과 함께, 인공지능 기술을 견제할 수 있는 시스템과 제도의 중요성이 강조된다.
생각 및 정리
발리2와 같은 고도화된 음성 합성 기술은 그 잠재적인 악용 가능성으로 인해 심각한 사회적 문제를 야기할 수 있다. 이러한 기술이 보이스피싱 범죄에 악용될 경우, 다음과 같은 문제가 발생할 것이다.
1. 보이스피싱 범죄의 증가
사기꾼들은 발리2를 이용해 피해자의 가족이나 친구의 목소리를 그대로 복제하여 신뢰를 얻고, 금전적 이득을 취할 수 있다. 이로 인해 피해자의 경계심이 무너지고, 사기 성공률이 높아져 보이스피싱 범죄가 급격히 증가할 것이다. 개인의 재산 손실뿐만 아니라 정신적 피해도 야기할 수 있다.
2. 음성 인증 시스템의 취약성
현재 많은 은행과 중요한 서비스들이 음성 인증 시스템을 사용하고 있다. 그러나 발리2와 같은 고도화된 음성 합성 기술은 이러한 시스템을 쉽게 속일 수 있다. 만약 가짜 음성을 구별하지 못한다면, 금융 정보와 개인 데이터가 심각한 위험에 처할 수 있다. 개인의 재산과 정보 보안을 위협하는 중대한 문제이다.
3. 법적 대응의 어려움
복제된 음성을 이용한 보이스피싱이 증가하면, 법적 대응이 매우 어려워질 것이다. 피해자가 사기를 당했을 경우, 복제된 음성으로 인해 범인을 추적하고 증거를 확보하는 것이 복잡해진다. 법적 체계가 이러한 새로운 유형의 범죄에 빠르게 대응하기 어려운 상황에서는 피해자 보호가 제대로 이루어지지 않을 것이다.
4. 사회적 신뢰도 저하
발리2와 같은 기술의 존재는 사람들 사이의 신뢰를 크게 약화시킬 수 있다. 전화나 음성 메시지를 통한 의사소통에 대한 불신이 커지고, 중요한 메시지를 전달하는 과정에서 어려움을 겪게 될 것이다. 가족, 친구, 동료 간의 신뢰 관계를 해칠 수 있으며, 사회 전반에 걸쳐 부정적인 영향을 미칠 것이다.
이러한 문제점들을 고려할 때, 발리2와 같은 고도화된 음성 합성 기술이 과연 사회에 꼭 필요한 기술인지 의문을 제기할 수밖에 없다. 비록 진짜와 가짜를 선별하는 기술이 발전한다 해도, 그로 인한 이익보다 사회적 피해가 더 클 가능성이 높다.
음성 합성 기술이 교육, 의학, 엔터테인먼트 등 일부 분야에서 혁신을 가져올 수는 있지만, 그로 인한 범죄적 악용 가능성과 사회적 불신을 감안하면, 이러한 기술을 대중에게 공개하는 것은 매우 위험한 결정이다. 우리는 기술 발전의 속도를 따라잡기 어려운 사회적, 법적 체계를 가지고 있으며, 이로 인해 발생할 수 있는 잠재적인 위험을 무시할 수 없다.
따라서, 발리2와 같은 기술의 출시는 반대하며, 기술의 안전한 사용과 사회적 합의를 위한 충분한 논의가 필요하다고 생각한다.
'기타' 카테고리의 다른 글
IT 이슈 : 무하유, 수도권 특목고에 'GPT킬러' 공급 (0) | 2024.08.22 |
---|---|
신입사원으로서의 첫 출근, 내가 생각하는 준비와 마음가짐 (0) | 2024.08.12 |
IT 이슈 : ‘구글 천하’ 검색시장…오픈AI ‘서치GPT’ 도전장 (0) | 2024.07.29 |
스마트팜 (6) | 2024.07.23 |
몇 개월 간의 회고 : 경험과 배움 (0) | 2024.07.19 |
목소리도 베끼는 인공지능…MS·오픈AI, 공개 망설이는 이유
생성 인공지능(AI) 열풍을 몰고 온 건 챗지피티였지만, 불씨는 오픈에이아이(AI)의 3세대 언어 모델 ‘지피티3’이었다. 기술전문매체 ‘ 에이아이엠 ’은 지피티3의 탄생을 알리며 오픈에이아이
www.hani.co.kr
OpenAI의 3세대 언어 모델인 GPT-3는 인공지능(AI) 열풍의 불씨를 당겼다. GPT-3의 강력한 언어 모델은 유익한 응용과 해로운 응용 모두에 잠재력이 있었고, 이를 공개할지 여부를 두고 논쟁이 있었다. 결국 공개된 GPT-3를 기반으로 ChatGPT가 탄생하면서 인공지능 세상이 열렸다.
4년 뒤, 마이크로소프트는 비슷한 고민을 겪었다. 2024년 7월에 공개된 인공지능 음성 모델 ‘발리2’는 3초 분량의 원본 오디오만으로도 목소리를 똑같이 복제할 수 있다. 발리2는 '인간 동등성' 테스트에서 인간보다 우수한 평가를 받았으며, 다양한 분야에서 혁신을 가져올 수 있지만, 범죄에도 악용될 수 있는 잠재력을 가지고 있다. 이에 마이크로소프트는 발리2를 연구 목적으로만 사용하고, 제품에 탑재하거나 대중에게 공개하지 않기로 했다.
OpenAI도 2024년 3월에 음성 합성 기술 연구 결과를 발표하며 공개하지 않고 미리보기만 제공하기로 결정했다. 이들은 음성 인증 보안 강화, 인공지능 음성 사용 정책 수립, 인공지능 기술의 기만 가능성을 포함한 대중 교육, 인공지능 기술 사용 시 명확한 표기 등의 조치를 먼저 이행해야 한다고 밝혔다.
인공지능 기술의 잠재적 위협과 관련해, 기업의 비공개 결정은 이해할 만하지만, 인공지능의 잠재적 위협을 기업의 자의적 결정에 맡기는 것에 대한 우려가 남는다. 지난해 11월, OpenAI 이사회와 CEO 샘 올트먼 사이의 갈등 배경에는 '안전한 인공지능'을 둘러싼 논쟁이 있었다. OpenAI는 인간 추론 능력에 근접한 새로운 인공지능 모델 '스트로베리'를 준비 중이며, AGI(범용 인공지능)에 도달하는 5단계 과정 중 2단계인 '추론자' 단계에 있다고 밝혔다.
기술 발전과 윤리 사이에서 기업의 결정은 항상 인류의 보편적 이익에 부합하지 않을 수 있다. 좋은 기술 기업이 윤리적 기업이 될 수 있는지에 대한 의문과 함께, 인공지능 기술을 견제할 수 있는 시스템과 제도의 중요성이 강조된다.
생각 및 정리
발리2와 같은 고도화된 음성 합성 기술은 그 잠재적인 악용 가능성으로 인해 심각한 사회적 문제를 야기할 수 있다. 이러한 기술이 보이스피싱 범죄에 악용될 경우, 다음과 같은 문제가 발생할 것이다.
1. 보이스피싱 범죄의 증가
사기꾼들은 발리2를 이용해 피해자의 가족이나 친구의 목소리를 그대로 복제하여 신뢰를 얻고, 금전적 이득을 취할 수 있다. 이로 인해 피해자의 경계심이 무너지고, 사기 성공률이 높아져 보이스피싱 범죄가 급격히 증가할 것이다. 개인의 재산 손실뿐만 아니라 정신적 피해도 야기할 수 있다.
2. 음성 인증 시스템의 취약성
현재 많은 은행과 중요한 서비스들이 음성 인증 시스템을 사용하고 있다. 그러나 발리2와 같은 고도화된 음성 합성 기술은 이러한 시스템을 쉽게 속일 수 있다. 만약 가짜 음성을 구별하지 못한다면, 금융 정보와 개인 데이터가 심각한 위험에 처할 수 있다. 개인의 재산과 정보 보안을 위협하는 중대한 문제이다.
3. 법적 대응의 어려움
복제된 음성을 이용한 보이스피싱이 증가하면, 법적 대응이 매우 어려워질 것이다. 피해자가 사기를 당했을 경우, 복제된 음성으로 인해 범인을 추적하고 증거를 확보하는 것이 복잡해진다. 법적 체계가 이러한 새로운 유형의 범죄에 빠르게 대응하기 어려운 상황에서는 피해자 보호가 제대로 이루어지지 않을 것이다.
4. 사회적 신뢰도 저하
발리2와 같은 기술의 존재는 사람들 사이의 신뢰를 크게 약화시킬 수 있다. 전화나 음성 메시지를 통한 의사소통에 대한 불신이 커지고, 중요한 메시지를 전달하는 과정에서 어려움을 겪게 될 것이다. 가족, 친구, 동료 간의 신뢰 관계를 해칠 수 있으며, 사회 전반에 걸쳐 부정적인 영향을 미칠 것이다.
이러한 문제점들을 고려할 때, 발리2와 같은 고도화된 음성 합성 기술이 과연 사회에 꼭 필요한 기술인지 의문을 제기할 수밖에 없다. 비록 진짜와 가짜를 선별하는 기술이 발전한다 해도, 그로 인한 이익보다 사회적 피해가 더 클 가능성이 높다.
음성 합성 기술이 교육, 의학, 엔터테인먼트 등 일부 분야에서 혁신을 가져올 수는 있지만, 그로 인한 범죄적 악용 가능성과 사회적 불신을 감안하면, 이러한 기술을 대중에게 공개하는 것은 매우 위험한 결정이다. 우리는 기술 발전의 속도를 따라잡기 어려운 사회적, 법적 체계를 가지고 있으며, 이로 인해 발생할 수 있는 잠재적인 위험을 무시할 수 없다.
따라서, 발리2와 같은 기술의 출시는 반대하며, 기술의 안전한 사용과 사회적 합의를 위한 충분한 논의가 필요하다고 생각한다.
'기타' 카테고리의 다른 글
IT 이슈 : 무하유, 수도권 특목고에 'GPT킬러' 공급 (0) | 2024.08.22 |
---|---|
신입사원으로서의 첫 출근, 내가 생각하는 준비와 마음가짐 (0) | 2024.08.12 |
IT 이슈 : ‘구글 천하’ 검색시장…오픈AI ‘서치GPT’ 도전장 (0) | 2024.07.29 |
스마트팜 (6) | 2024.07.23 |
몇 개월 간의 회고 : 경험과 배움 (0) | 2024.07.19 |