AI 알고리즘 과연위험한기술일까?

2020. 6. 23. 16:21IT 인터넷

반응형

 

안녕하세요 발 빠른 입니다 오늘은 인공지능 알고리즘 설명을 해보도록 하겠습니다.

인공 지능의 위협에 대해 논의할 때 가장 먼저 떠오르는 것은 스카이넷 매트릭스 등등 종말의 이미지입니다.

위협의 예측으로서는 인공지능 알고리즘이 모든 직업과 작업을 인간 대신 수행을 하여 노동자들이 더 이상 

필요 없는 세상이 되어 생존, 일자리를 얻기 위해 투쟁하는 미래상 등등 이러한 인공지능의 노동자들의

일자리 위협은 여전히 과학자들의 뜨거운 논쟁거리인데요. 그러나 AI 알고리즘은 사람들이 상상하는 것보다

어려운 방식으로 오늘날 존재하는 더 긴박한 위협을 알려줍니다.

 

한과 학자는 빅 데이터가 불평등을 증가시키고 민주주의를 위협하며 알고리즘을 맹목적으로 신뢰해

민감한 결정을 모두 AI에게 내리게 한다면 많은 사람들에게 해가 가해질 거라며 발언하였습니다.

알고리즘의 위험은 알고리즘의 편견과 AI의 위험한 판단 피드백 등이 여러 곳에 적용된다면

경제, 사회적 상호작용, 형사사법 시스템에 이르기까지 일상생활의 모든 것에 위협이 확대될 수 있다고 발언했습니다.

 

또한 의료 결정에 수학과 알고리즘을 사용하는 것이 새로운 방식은 아니지만 근래 딥러닝의 발전은

AI 시스템의 효과를 좋던 나쁘든 그 성장 효과를 증폭시킵니다. 이에 AI의 위험에 대해 

이해를 하지 못한다면 그이점을 활용할 수 없다는 의견도 있습니다.

 

위험한 AI 알고리즘의 특징

최근 인류는 알고리즘을 사용하여 많은 것을 처리하며 해결합니다. 

그러나 딥러닝의 발전으로  인류의 삶의 모든 측면에 디지털화가 증가됨에 따라

점점 더 많은 AI 기술 등등이 우리의 사회에 파고들어가고 있습니다. 광대역 인터넷

클라우드 시스템, 모바일 기기, 사물인터넷, 웨어러블 및 기타 신흥 기술 덕분에

AI 알고리즘은 인류의 무엇이든 모든 것에 관한 정보를 점점 더 많이 데이터화 수집하고

처리할 수 있습니다. 데이터 및 인터넷의 대한 액세스 가 증가함에 따라 점점 더 많은 작업들이

자동화할 수 있는 AI 알고리즘을 만들어낼 수 있었습니다. 이전에 실험실에서밖에 만들어낼 수 없었던

신흥 기술들 딥뉴럴 네트워크 컴퓨터 비전, 기계번역, 음성 및 얼굴인식 등등 점점 신흥 기술들이 

다양한 분야로 진출하고 잇습니다. 여태까지 최신 기술들이 정착하며 그런대로 편리하고

좋은 기술로 인해 삶의 질이 윤택해졌으며 AI알고리즘도 그중 하나라고 생각하는 사람도 있지만

여러 전문가들이 살상 무기의 제작 불투명한 생활기반의 피해 오늘날 AI가 위협을 시작한다면

걷잡을 수 없을 거라고 경고했습니다.

 

 

 AI 알고리즘의 사악한 학습

 

 쇼핑광고 제안 검색이 잘되지 않는 이미지 분류 등 오류를 일으키는

AI알고리즘의 예는 많이 있습니다. 그러나 인공지능 모델이 인류의 삶에 점점 더 깊이

뿌리 깊이 내리면 AI의 오류는 조금 더 파괴적인 쪽으로 이동할 수도 있습니다.

전문가들은 알고리즘은 사람들의 삶은 손상시키는 많은 사례를 탐구한다 라고 말했으며

예를 들어 사람들의 신용점수 시스템을 내리거나 인종 및 민족 배경을 기반으로

학습하여 인종차별등을 일삼는 인터넷의 익명자들에게도 많은 문장을 제시하며 

우수한 교수를 처벌하고 사기꾼에게 보상을 주는 교사체점 시스템 수십억 달러를 벌기 위해

저소득층을 희생시키는 거래 알고리즘 등등 알고리즘의 영향은 정말

위험한 AI 시스템의 양성에 적합합니다. AI의 모델은 복잡하고 수학적이며

이러한 모델은 여러 경우의 수로 포함되어 있지만 그중 일부 AI는 편견적이며

상호주의 모델은 상위권의 엘리트 들만 이해하는 모습 등 인공지능에게는

사람을 법으로 처벌할 시 왜 용서받을 자격이 없는 것인지 도덕적으로 판단을 할 수 없습니다.

 

위험한 AI 알고리즘을 더욱 유해하게 만드는 요소도 있는데

 

먼저 데이터를 말할 수 있습니다. 기계 학습 알고리즘은 자신의 학습 정확성을 위해

양질의 데이터를 사용하는데 만약 고양이의 그림을 감지하도록 하려면 

여러 종류의 고양이 사진을 제공해야 합니다. 마찬가지로 대출신청 알고리즘

금융 AI 에게는 많은 대출 신청 기록과 그 결과(대출완료, 불완료) 등 이러한

과정의 데이터가 필요합니다. 문제는 AI 알고리즘에게 피해를 입은 사람들은

양질의 데이터가 충분하지 않은 사람들이라는 겁니다.. 대출 애플리케이션 프로세서가

이미 은행에 대한 적절한 액세스 권한을 가지고 있고 금융 시스템을 거의 이용하지 못하는

비은행 소외 계층들에게 벌금을 부과하는 사람들에게 더 나은 서비스를 제공하는 이유입니다.

 

이외 두 번째 문제는 피드백 루프입니다. AI 알고리즘이 문제행동을 일으키는 결정을

내릴 때마다 그 동작은 더 잘못된 데이터를 생성하여 이로 인해 알고리즘은 더욱 학습하여 더 많은 

문재 행동을 유발하고 끝없이 주기를 계속 생성합니다.

 

전문가들은 치안 알고리즘에 관해서도 언급을 하였는데 빈곤층 지역에 편견적인

결과를 만들어내 더 많은 경찰의 존재를 필요하게 한다고 말햿으며 경찰 자체가

범인을 확보할떄마다 더 많은 편견적인 정책을 정당화하며 미래 교도소에서는 희생자 없는

범죄로 인해 유죄판결을 받은 수십만 명의 사람이 가득 찰 것이라고 경고하였습니다.

 

이러한 이유로 서로 아직 연결하지 않은 AI 시스템이 서로 어떻게 공급하는지에 대해 

더욱 크게 예측하면 실제 피해가 어떻게 발생하는지 확인할 수 있습니다.

이예 측을 참고 삼아 만약 이러한 치안유지 알고리즘이 도입된다면 

빈민층의 사람들은 더욱더 가난해지며 신용이 좋지 않고 범죄가 많은 지역에

격리되는 가능성을 제시하였습니다.

 

알고리즘의 피해

 

전문가들은 AI 모델은 기하급수적으로 성장할 수 있는 능력이 있으며

자기 스스로 확장할 수 있다고 말했습니다. 심지여 구글의 검색엔진을

스스로 학습하여 수십억의 사람들의 건강 정치 사회문제 같은 중요한 안건에

데이터를 학습하여 자신에게 유리한 여론을 형성합니다 마찬가지로 페이스북

같은 순위 알고리즘의 경우 매일 수억 명의 사람들이 보는 뉴스를 자신에게

이익이 될 악의적인 가짜 뉴스를 퍼뜨리는 행위를 할 수 있으며 직접적으로

알고리즘이 악의적인 의도가 없더라고 여전히 작은 실수가 매우 큰 규모의

피해를 입힐 수 있다고 했습니다. 특히 매력적인 콘텐츠를 제공하여

사람들의 편견을 증폭시키고 사용자의 판단력을 흐리게 한다고 말했으며

 

AI 알고리즘이 수억 명의 사람들에 대한 신용점수를 결정하고

국가 교육 시스템의 운명을 결정할 때는 천문학적인 피해를 입힐 수 있는

 

모든 요소가 완성됩니다. 이에 관련해서 전문가들은 배포하는 AI알고리즘의

한계를 정해야 하며 큰 결정을 절대로 AI 알고리즘에게 의존하면 안 된다고 하였습니다.

반응형