인공지능(AI)으로 만든 가짜 뉴스와 이미지, 영상 등이 선거를 혼탁하게 만들고 민의를 왜곡할 것이라는 우려가 커지고 있다. 오픈 AI는 챗GPT가 제공하는 최신 선거 관련 정보에 출처를 표기하고, 자사의 이미지 생성형 AI 서비스인 '달리(Dall-E)'가 만든 이미지에 워터마크를 넣는 등의 조치를 발표했다. 미국 SNS 플랫폼 운영 업체들도 생성 AI 사용 사실을 이용자들에게 공개하도록 하는 등 자율 규제를 강화하고 있다. 그러나 이러한 조치들도 가짜 뉴스 확산을 원천 차단하진 못할 것이라는 전망이 많다.
인공지능(AI)은 인간의 지능을 모방한 기술로, 최근 몇 년 동안 급속한 발전을 거듭하고 있다. AI는 다양한 분야에서 활용되고 있으며, 우리의 삶을 더욱 편리하고 풍요롭게 만들어주고 있다. 하지만, AI의 발전과 함께 부작용에 대한 우려도 커지고 있다. 특히, 생성형 AI의 경우, 현실과 구별하기 어려운 가짜 콘텐츠를 생성할 수 있다는 점에서 심각한 문제점을 야기할 수 있다
1. 생성형 AI - 문제점
① 정보 왜곡 및 조작
생성형 AI는 현실과 구별하기 어려운 가짜 콘텐츠를 생성할 수 있다. 이러한 가짜 콘텐츠는 정치적 선동을 위한 목적으로 사용될 수 있으며, 공공의 여론을 조작하거나 사회 혼란을 야기할 수 있다. 예를 들어, 생성형 AI를 이용하여 허위 뉴스를 만들어낼 수 있다. 허위 뉴스는 사실과 다른 내용을 담고 있지만, 실제 뉴스처럼 보이기 때문에 사람들을 속일 수 있다.
또한, 생성형 AI를 이용하여 정치적 선동을 위한 목적으로 영상이나 이미지를 만들 수 있다. 이러한 영상이나 이미지는 사람들의 감정을 자극하여 특정 후보나 정당에 대한 지지를 유도할 수 있다.
② 범죄 및 사기 생성형
AI는 범죄 및 사기 행위에 악용될 수 있다. 예를 들어, 생성형 AI를 이용하여 신분증이나 여권, 운전면허증 등의 위조문서를 만들 수 있다. 이러한 위조문서는 범죄에 악용될 수 있으며, 사회 안전을 위협할 수 있다.
또한, 생성형 AI를 이용하여 사기 행위를 벌일 수 있다. 예를 들어, 생성형 AI를 이용하여 연예인이나 유명인의 얼굴을 합성하여 거짓 광고를 만들 수 있다. 이러한 거짓 광고는 사람들을 속여 돈을 가로챌 수 있다.
③ 개인정보 유출 및 악용
생성형 AI는 개인정보 유출 및 악용에 악용될 수 있다. 생성형 AI는 대규모의 데이터를 학습해야 하기 때문에, 개인정보가 포함된 데이터를 사용해야 하는 경우가 많다. 이러한 데이터가 악용될 경우, 개인 사생활이 침해되거나 범죄에 악용될 수 있다. 예를 들어, 생성형 AI를 이용하여 개인의 얼굴이나 목소리를 복제할 수 있다. 이러한 복제된 얼굴이나 목소리는 사기 행위나 범죄에 악용될 수 있다.
2. 전세계, 생성형 AI의 규제를 위한 노력
① 한국
한국의 AI 규제 접근 한국은 AI 기술 발전과 규제의 조화를 추구하는 균형 잡힌 접근을 지향하고 있다.
과기정통부는 AI 산업을 체계적으로 육성하기 위해 기술개발, 학습용 데이터 구축 및 창업 지원 등의 근거를 마련하는 한편, AI 활용에 따른 부작용에 선제적으로 대응하기 위해 고위험영역 AI를 정의하고, 고위험영역 AI에 대해서는 이용자 대상 사전고지와 함께 신뢰성 확보도 의무화하는 등 사업자 책무를 규정하는 적정 수준의 규제를 포함하는 AI 법안을 마련했다.
② 미국
바이든 행정부는 생성형 AI의 안전·보안·신뢰 확보를 위한 8대 원칙을 발표하고, 빅테크 기업 15곳으로부터 원칙 이행에 대한 자율 서약을 받았다. EU는 고위험 AI에 대한 강력한 규제를 추진하고 있다.
③ 유럽
EU는 안면인식 등 실시간 생체정보 수집을 금지하고, 고위험 AI를 분류하는 등 AI 위험도를 4단계로 나누고, 금지행위를 위반할 경우 글로벌 기업의 세계 매출액의 7%에 달하는 과징금을 부과하는 등 세계 최초로 AI를 강력하게 규제하는 법안 제정에 합의한 바 있다.
④ 일본
일본은 AI의 안전·신뢰성 확보를 위해 'AI 윤리 원칙'을 마련하고, AI 개발·활용 과정에서의 윤리적 고려를 강조하고 있다. 또한, AI 기술의 발전과 함께 새로운 규제의 필요성이 제기되고 있음을 인식하고, AI 규제의 체계적 마련을 위한 논의를 진행하고 있다.
3. 안전하게 생성형 AI를 활용하는 방법
① 생성형 AI의 윤리적 사용 기준 마련
생성형 AI의 윤리적 사용 기준을 마련하여, 생성형 AI가 악용되지 않도록 해야 한다. 이러한 기준에는 생성형 AI의 용도, 사용 대상, 개인정보 보호, 사회적 책임 등이 포함되어야 한다.
② 생성형 AI의 기술 개발 및 보안 강화
생성형 AI의 기술 개발을 통해, 가짜 콘텐츠를 구별할 수 있는 기술을 개발해야 한다. 또한, 생성형 AI의 보안을 강화하여, 개인정보 유출 및 악용을 막아야 한다.
③ 국민의 인식 제고
국민의 인식을 제고하여, 생성형 AI의 부작용에 대한 경각심을 높여야 한다. 국민들이 생성형 AI의 부작용을 이해하고, 이를 주의하여야 한다. 인공지능은 우리 사회에 많은 변화와 혁신을 가져올 것이다. 하지만, 이러한 변화와 혁신을 위해서는 생성형 AI의 부작용을 최소화하는 것이 중요하다. 정부와 기업, 그리고 국민 모두의 노력이 필요하다.
④ AI 기술의 잠재적 위험성에 대한 충분한 고려
AI 기술의 다양한 부작용에 대한 분석을 통해, AI 기술의 안전성·신뢰성을 확보하기 위한 구체적인 규제 방안을 마련해야 한다.
⑤ 규제를 유연하게 조정할 수 있는 제도적 기반마련
AI 기술의 발전 속도에 맞춰 규제를 유연하게 조정할 수 있는 제도적 기반을 마련해야 한다. 기업의 투자 활성화 AI 기술의 발전을 촉진하기 위해, 기업의 투자를 저해하지 않는 범위 내에서 적정 수준의 규제를 마련해야 한다. AI 분야 기술혁신을 선도하고, 글로벌 규범 논의를 주도하기 위해서는 AI 법의 조속한 통과가 필요하다. AI 법 제정은 AI 기술의 안전성·신뢰성 확보와 산업 발전을 동시에 달성할 수 있는 기반이 될 것이다.
얼마 전 뉴스에서 오픈 AI는 챗GPT가 제공하는 최신 선거 관련 정보에 출처를 표기함으로써 이용자가 직접 해당 정보의 신뢰성을 판단할 수 있도록 하겠다고 밝혔다. 오픈 AI는 또, 달리가 만든 이미지에 워터마크를 넣고, 이미지 제작 과정에서의 달리 활용 여부를 이용자가 직접 확인해 볼 수 있는 별도 도구를 출시하겠다고 밝혔다.
미국 SNS 플랫폼 운영 업체들도 생성 AI 사용 사실을 이용자들에게 공개하도록 하는 등 자율 규제를 강화하고 있다. 오픈 AI와 SNS 플랫폼 운영 업체들의 조치는 가짜 뉴스 확산을 줄이기 위한 긍정적인 노력이다.
생성형AI의 선두주자인 거대기업들도 이제 그 위험성을 인지하고 있는 것이다. 그러나 이러한 조치들만으로는 가짜 뉴스 또는 이미지 등의 확산을 원천 차단하기는 어려울 것으로 보인다. 가짜 콘텐츠의 확산을 막기 위해서는 기술적 대책뿐만 아니라, 이용자들의 올바른 정보 판단 능력 향상과 사회 전반의 가짜에 대한 경각심 제고가 필요하다.
AI 규제 방향은 AI 기술 발전과 규제의 조화를 추구하는 균형 잡힌 접근을 지속해야 한다.
'인공지능' 카테고리의 다른 글
인공지능(생산형AI)으로 블로그 글쓰기 (0) | 2024.01.29 |
---|---|
프롬프트 마켓플레이스란? (0) | 2024.01.28 |
AI 윤리가 필요한 이유와 기준 (0) | 2024.01.27 |
생성형 AI는 무엇일까? (0) | 2024.01.27 |
AI로 없어질 수 있는 직업은? (0) | 2024.01.26 |