연속기획   “99년 연구회 체제”를 넘어 - 챗GPT와 연구윤리

챗GPT 활용을 위한 자율적 연구윤리의 확립

홍승헌한국행정연구원  규제정책연구실 부연구위원 2023 여름호

OpenAI의 챗GPT, 구글의 바드(Bard)와 같은 생성형 인공지능 붐이 일면서 이를 연구에 활용하는 연구자들을 찾는 건 더 이상 어려운 일이 아니다. 단순 질문에 대한 답을 구하는 것에서부터, 보고서 내용을 요약하고, 복잡한 내용을 알기 쉽게 유형화해주며, 원고를 원하는 포맷으로 바꾸어 주고, 외국어를 이해하기 쉬운 우리말로 바꾸어 주기까지 하는데 사용하지 않을 이유가 없다. 특히 유형화와 요약에 있어 탁월한 성능을 보여주고 있다는 점에서 생성형 인공지능은 연구자들에게 거부할 수 없는 매력으로 다가온다. MS오피스에 탑재될 코파일럿(Copilot)과 같은 기능이 조만간 상용화된다면 기존의 보고서를 참조해서 새로운 보고서를 작성하고, 이전 자료와 현재 자료를 비교·분석하는 그래프를 생성하며, 파워포인트 발표자료를 만들고, 이메일을 작성하는 것에 이르기까지 연구자가 직접 해야 하는 수고를 덜 수 있을 것이다.

어떤 질문을 던지느냐가 독창성을 가늠하는 시대

생성형 인공지능이 연구에 점점 더 많이 활용되면서 대두되는 문제 중 하나가 연구윤리다. 연구자는 직접 작성하지 않고 타인의 아이디어나 저작물을 사용할 때 이를 투명하게 밝혀야 할 의무가 있다. 글쓴이의 자격(authorship)과 저작권(copyright)은 타인의 것과 나의 독창적인 것을 구분하는 데에서 출발하기 때문이다. 그렇다면 챗GPT가 내놓은 답을 연구보고서나 논문에 가져와 쓰고자 할 때, 이는 나만의 독창적인 것일까 아니면 타인의 것일까?

생성형 인공지능은 사용자가 던지는 질문에 따라서 훨씬 더 정교한 답을 내놓는다. 심지어는 사이버 공격에 활용할 수 있는 코드를 내놓기도 한다. 예를 들어 챗GPT는 사용자의 불법적이고 비윤리적인 요청에 응답하지 않도록 훈련되어 있지만, 사용자는 테스트를 목적으로 하는 보안 연구자임을 설명하고 질문을 던짐으로써 이러한 윤리코드를 우회할 수 있다. 답하는 능력보다 질문하는 능력이 중요해지고 있고, 어떤 질문을 던지느냐가 독창성을 가늠하는 중요한 잣대가 되어가고 있는 것처럼 보인다. 챗GPT가 내놓은 답이라고 할지라도 남들이 도출한 답과 차별성이 존재한다면, 이는 곧 사용자가 던지는 질문들의 독창성이 반영된 결과라는 점을 부인하기 어렵다.

챗GPT와 투명성, 그리고 연구윤리

질문을 던지고 그에 대한 답을 찾는 사람을 넓은 의미에서 연구자라 지칭한다면, 연구의 가치는 연구질문뿐만 아니라 질문에 대한 답과 이를 도출하는 과정에서도 나온다. 동일한 연구질문을 던지더라도 사용하는 데이터와 연구방법에 따라 다른 대답이 나올 수 있기 때문이다. 따라서 우리는 연구에 사용한 질문과 데이터, 연구방법을 투명하게 공개하고 이에 더해 사용한 소프트웨어 등의 기술적 보조장치 또한 공개한다. 이러한 잣대를 공정하게 적용한다면 생성형 인공지능의 사용도 투명하게 공개하는 것이 옳다.

물론 생성형 인공지능을 사용했다는 점을 공개하더라도 재현가능성(replicability)이 보장되기는 어려울 것이다. 생성형 인공지능은 동일한 질문에 대해 동일한 대답을 내놓지 않기 때문이다. 챗GPT에 던지는 질문에 대한 답을 도출하는 과정에서 작동하는 알고리즘을 연구자가 설명하는 것 또한 불가능에 가깝다. 따라서 연구윤리 측면에서 어느 수준까지 생성형 인공지능의 사용을 투명하게 공개할 것인가는 논의의 여지가 있다. 중요한 점은 질문하는 능력이 중요한 시대가 도래하더라도 여전히 질문의 독창성과 차별성만으로 연구의 가치를 온전히 판단하는 게 어렵다는 것이다. 데이터를 분석하면서 어떤 소프트웨어를 어떻게 활용했는지를 공개하는 것처럼 보고서나 논문을 작성하는 데 챗GPT를 활용한다면 연구자는 이를 투명하게 밝혀야 할 필요가 있다.

<그림> EU 인공지능법안의 위험기반 피라미드

연구윤리 자율규제는 연구자의 자율성을 보장

지난 6월 유럽의회 본회의를 통과한 인공지능(AI)법안은 대규모 언어모델을 사용하여 예술과 음악, 기타 콘텐츠를 만들어내는 생성형 인공지능 모델에 엄격한 투명성 의무를 적용하고 있다. 2년 전 EU집행위원회가 내놓은 법률안에는 없었던 내용으로서, 급속한 인공지능의 발전상을 반영한 결과다.

인공지능 규제에 있어 우리가 EU의 위험기반접근법(risk-based approach)을 따라갈지는 미지수다. 그리고 아직까지 생성형 인공지능을 연구에 활용할 때의 의무에 관해서는 전 세계적으로 정해진 바 없다. 그러나 연구자가 생성형 인공지능을 연구에서 활용할 때 이를 투명하게 밝히는 것이 연구윤리상 옳다면, 기왕이면 투명성 의무가 강제적으로 부과되기 전에 우리 스스로 기준을 만들어 실천해 나갈 필요가 있다. 특히 생성형 인공지능을 사용했을 때, 이를 얼마나 그리고 어떻게 투명하게 밝혀야 하느냐에 관한 논의를 연구기관 내부에서 연구자들 스스로 시작해야 한다. 자율규제는 외부에서 주어지는 것이 아니라 피규제자들 스스로 역량을 키워나갈 때 가능하다. 연구자와 연구기관 스스로 연구윤리를 자율규제(self-regulation)해 나가지 않는다면 연구자의 자율성(autonomy)을 보장받는 일은 요원하다.

기사는 어떠셨나요?
이 기사에 공감하신다면 ‘공감’버튼으로 응원해주세요!

독자 여러분께 더 나은 읽을거리를 제공하는데 도움이 됩니다.

‘공감’으로 응원하기5