기사 메일전송
기사수정

[한국미래일보=이재원 기자] ChatGPT의 등장으로 생성형 AI의 열풍이 계속되고 있습니다. 글로벌 AI 시장 규모는 점점 성장하여 2030년에는 2조 251억 달러(약 2,713조) 규모로 커질 것으로 전망됩니다. 하지만 커지는 규모만큼 위험성도 커지기 마련입니다. 외부 클라우드를 사용하여 사용자의 데이터 유출 위험성과 잘못된 정보를 생성하는 등의 문제점이 생기고 있습니다.


실제로 글로벌 빅테크 기업들인 애플, 아마존 등은 내부 임직원들에게 ChatGPT 사용에 대한 경계를 표시하며, 보안 등의 이슈로 도입을 꺼리는 기업들도 많아졌습니다. 최근 이를 파고들어 기업의 내부 데이터만 활용해 보안성을 높이고 거짓 정보를 생성하는 문제를 방지하는 모델도 사업 분야로 커지고 있습니다.


디지털 시대에 생성 언어 모델은 자동으로 텍스트를 생성하는 능력으로 상당한 인기를 얻었지만, 잘못된 정보를 생성하고 퍼트리기 위해 조작될 수도 있으며, 이는 사회에 상당한 문제가 되고 있습니다. 우리는 사용자로서 여러가지 조치를 할 수 있습니다.



생성된 콘텐츠의 출처를 항상 확인해야 합니다. 만약 정보가 의심스럽다면, 정보를 수용하기 전에 신뢰할 수 있는 출처와 교차 확인을 해야합니다.또한, 정확한 정보와 잘못된 정보를 구분할 수 있는 비판적 사고 능력을 가져야합니다. 생성된 콘텐츠에서 조작과 잘못된 정보의 가능성을 인식하는 것이 중요합니다.


결론적으로 생성언어모델은 많은 장점을 제공하지만 잘못된 정보를 생성하는 측면에서도 어려움을 가지고 있습니다. 따라서 사용자는 이러한 단계를 확인하고 강력한 도구의 책임있는 사용을 하는 것이 중요합니다. 책임있는 사용을 통하여 잘못된 정보의 확산을 방지하는데 결정적인 역할을 할 수 있습니다.


0
기사수정
  • 기사등록 2023-10-04 00:10:01
기자프로필
프로필이미지
나도 한마디
※ 로그인 후 의견을 등록하시면, 자신의 의견을 관리하실 수 있습니다. 0/1000
모바일 버전 바로가기