>RE::VISION CRM

카테고리 없음

[ChatGPT 인터뷰] AI 언어모델 ChatGPT가 불러온 위험들

YONG_X 2023. 2. 3. 20:37

[ChatGPT 인터뷰] AI 언어모델 ChatGPT가 불러온 위험들

 

2023-02-03

 

인터뷰어 : 전용준 (리비젼컨설팅)

인터뷰이: ChatGPT

 

 

 

Q: ChatGPT의 출현은 많은 사람들을 놀라게 하고 있습니다. 하지만 위험도 존재할 것입니다. 그렇다면 출현으로 인한 주요 위험은 무엇입니까?

A: AI 언어 모델로서 ChatGPT의 출현과 관련된 주요 위험은 다음과 같습니다.

* 편향 및 차별: AI 모델은 훈련 데이터에 존재하는 기존 편향을 영속화하고 증폭하여 출력의 차별로 이어질 수 있습니다.


* 잘못된 정보: AI 모델은 거짓 정보 또는 오해의 소지가 있는 정보를 생성할 수 있으며, 이는 인터넷에서 빠르게 확산되어 해를 끼칠 수 있습니다.

 

* 프라이버시: AI 모델은 방대한 양의 개인 데이터를 수집하고 처리할 수 있어 프라이버시 및 데이터 보안에 대한 우려를 불러일으킵니다.

 

* 의존성: AI 시스템에 대한 의존도가 높아지면 비판적 사고 능력과 의사 결정 능력이 상실되어 인간의 선택 의지가 감소할 수 있습니다.

이러한 위험을 인식하고 다양하고 편향되지 않은 교육 데이터를 사용하고 AI 시스템이 해를 끼치지 않도록 지속적으로 모니터링 및 테스트하는 등 위험을 완화하기 위한 조치를 취하는 것이 중요합니다.

 


Q: 앞선 답변에서의 4가지 이슈들 중 가장 심각한 이슈는 무엇일까요?

A: AI 언어 모델과 관련된 4가지 위험 중 어느 것이 가장 심각한지 결정하기는 어렵습니다. 각 위험은 상당한 문제를 제시하고 광범위한 결과를 초래할 수 있기 때문입니다. 그러나 일부 전문가들은 편향되고 차별적인 결과물의 위험이 사람들의 삶에 상당한 영향을 미치고 기존의 사회적 경제적 불평등을 악화시킬 수 있기 때문에 특히 우려된다고 주장합니다. 잘못된 정보는 빠르게 확산되고 수정하기 어려워 피해와 불신으로 이어질 수 있기 때문에 주요 관심사이기도 합니다. 이러한 위험은 모두 AI 시스템이 윤리적이고 책임감 있는 방식으로 사용되고 있는지 확인하기 위해 신중한 고려와 지속적인 모니터링의 필요성을 강조합니다.

 

 

photo credit: DALL-E 2. prompted as "a photo of the future of AI making wrong solutions and penalized in soft kandinsky tone"



Q: 잘못된 정보를 제공하고 유포하면 인간의 결정에 잘못되고 어쩌면 치명적일 수도 있는 영향을 미칠 수 있습니다. 새로운 언어 모델은 지구를 파괴할 가능성 까지도 있는 것이 아닐까요?

A: ChatGPT와 같은 AI 언어 모델이 잘못된 정보를 퍼뜨릴 가능성은 심각한 문제이며, 이로 인해 경우에 따라 재앙적인 결과를 포함하여 피해를 초래할 수 있다는 것은 사실입니다. 그러나 기술 자체는 중립적이며 그 영향을 결정하는 것은 사용 방식이라는 점에 유의해야 합니다. 강력한 윤리적 지침, 투명하고 검증 가능한 데이터 소스, 엄격한 사실 확인 및 평가 프로세스를 구현하여 AI 언어 모델의 부정적인 결과를 완화할 수 있습니다. 또한 개인과 조직이 출처에 관계없이 수신한 정보를 비판적으로 평가하고 확인하고 정확하고 신뢰할 수 있는 정보를 기반으로 정보에 입각한 결정을 내리는 것이 중요합니다.


Q: 모델에서 생성된 답변(아마도 오답 확률 50% 이상)을 믿어야 합니까? 만일 그렇다면 이 모델들은 대체 무엇을 위한 것입니까?

A: ChatGPT와 같은 AI 언어 모델을 사용할 때 주의를 기울이고 그 한계와 오류 가능성을 이해하는 것이 중요합니다. ChatGPT를 포함한 AI 모델은 대량의 데이터에 대해 훈련되어 사람과 같은 응답을 생성할 수 있지만 완벽하지 않으며 부정확하거나 오해의 소지가 있는 답변을 생성할 수 있습니다.
결과적으로, 특히 잘못된 정보의 결과가 중요할 수 있는 중요한 상황에서 이러한 모델에서 생성된 답변에만 의존하는 것은 바람직하지 않습니다. 대신, 이러한 모델에 의해 생성된 답변은 많은 정보 소스 중 하나의 소스로 간주되어야 하며 의사 결정에 사용되기 전에 평가, 사실 확인 및 검증되어야 합니다.
ChatGPT와 같은 AI 언어 모델은 인간의 판단을 대체하기보다는 인간의 의사 결정을 지원하는 도구로 가장 잘 사용됩니다. 그것들은 아이디어를 생성하고, 사실에 입각한 질문에 대한 답을 제공하고, 창의적이고 탐색적인 사고를 촉진하는 데 유용할 수 있지만, 궁극적으로 정보에 입각한 결정을 내리려면 인간의 판단과 비판적 사고를 사용해야 합니다.


Ending Note: 

오픈과 동시에 전세계를 혼란에 몰아넣은 ChatGPT 스스로가 AI 언어 모델로서 ChatGPT가 가진 위험성에 대해 비교적 상세하게 설명해주었습니다. 다양한 그리고 심각한 문제점들을 수반하고 있음을 인정하면서도 존재의 가치를 부정하지는 않기 위해서인지 다소 정치적인 뉘앙스로 책임을 돌리는듯한 (기술은 중립적이다와 같은) 견해를 피력했습니다. 결국 책임과 사용은 모두 사용자인 인간의 몫이라는 의견입니다. 그렇다면 과연 지금의 상태는 개선될 수 있을까요? (다양하고 편향되지 않은 교육 데이터를 사용하고 지속적으로 모니터링 및 테스트하는 등 위험을 완화하기 위한 조치를 취하는 것을 대책이라고 주장해봐야 과연 현실적으로 얼마나 가능한 일인지 의문도 듭니다.) 그리고 지금 이 위험한 장난감을 어떤 용도로 어떻게 까지만 사용하는 것이 적절하고 현실적일까요? 답을 할 수 있는 사람이 많아 보이지 않습니다. -- YONG