" />
  • 최종편집 2024-04-19(금)
 

인공지능(AI)은 이미 우리 생활 속 깊숙이 자리잡고 있다. 현재 유통 중인 스마트폰 속 브랜드별 AI 또한 날이 갈수록 똑똑해지고 있다. 말만 하면 뉴스를 듣고 날씨와 교통정보 등 원하는 정보를 알 수 있으며, 원하는 장르의 음악을 추천받아 들을 수 있다. 또한 보험·은행·카드사에 이어 식당 또한 예약 문의를 위해 전화를 하면 상담원이 아닌 AI부터 상대해야 한다. 이러한 AI를 통해 삶이 더욱 편리해지고 안전해졌다고 할 수도 있지만, 부작용도 만만치 않다. AI를 활용하는 곳곳에서 인권·윤리 문제가 계속적으로 불거지고 있다.


인공지능 스타트업 스캐터랩에서 출시한 챗봇 ‘이루다’는 지난해 1월 혐오 발언과 이용자들의 부적절한 사용 등으로 논란을 빚고 서비스를 중단했다가 1년 9개월 만에 서비스를 재개했다. 기술 발전은 시간이 지날수록 가속도를 더해 가는데, 법과 제도가 그 속도를 따라가지 못해 생기는 ‘지체현상’이라고 볼 수 있다.


인간보다 AI가 더 똑똑해지는 상황에서 인간은 AI를 어떻게 대응해야 하는지, AI에게도 권리가 있다면 누가 그 권리를 판단하고 부여하는지 등 다양한 문제가 대두되고 있다.

AI는 덜 발달해도 혹은 지나치게 발달해도 문제를 일으킬 수 있다. AI가 충분히 발달하지 않아 생겼던 문제로 2015년 구글이 진행한 한 이미지 프로젝트에서 AI는 흑인을 고릴라로 인식한 적이 있다. 그동안 ‘인간’이라는 수많은 데이터 중 흑인의 이미지 데이터를 많이 입력하지 않았기 때문에 발생했던 문제다. AI가 너무 발달할 경우 안면인식 기술은 범죄자나 실종 아동을 찾는 등 도움을 주지만 정부가 시민을 감시하는 데 악용될 수도 있다. 그 과정에서 많은 권리가 침해되고 소수자에 대한 차별이 발생할 수 있다.


AI 관련 다양한 연구 및 상업적 활동에 대하여 윤리적으로 규제한다면 기술 발달을 저해할 수 있다는 의견도 있지만 오히려 기업 활동과 기술의 발전을 더 촉진할 수 있다. 비윤리적으로 운영되는 기업은 언젠가 소비자들로부터 불매운동을 겪거나 주가가 폭락하는 등 좋지 않은 결과를 맞이하는 경우가 종종 있다. ESG가 이슈화 되어온지 오래인 지금 윤리와 기업의 이윤은 상호보완적인 관계를 형성할 수 있다. 제품이나 기술 개발에 있어 윤리적인 결과를 도출할 수 있도록 정부는 AI 관련 윤리적 문제를 해결하도록 해야할 것이다.

전체댓글 0

  • 29768
비밀번호 :
메일보내기닫기
기사제목
인공지능(AI), 윤리적 문제 해결 필요해
보내는 분 이메일
받는 분 이메일