[단독] 칭찬은 AI도 춤추게 한다… ‘질문의 품격’ 높여 AI를 지휘하라 [AI 블랙홀 시대-인간다움을 묻다]

[단독] 칭찬은 AI도 춤추게 한다… ‘질문의 품격’ 높여 AI를 지휘하라 [AI 블랙홀 시대-인간다움을 묻다]

김헌주 기자
김헌주, 김민석, 김희리 기자
입력 2024-01-03 02:09
업데이트 2024-01-03 02:09
  • 글씨 크기 조절
  • 프린트
  • 공유하기
  • 댓글
    14

휘둘리지 않는 ‘AI 활용법’

이미지 확대
생성형 인공지능(AI) 챗GPT에 ‘AI의 발전이 디지털 불평등과 정보 격차를 심화시킬 것이라는 경고 메시지를 담은 이미지를 만들어 달라’고 지시하자 챗GPT가 내놓은 그림.
생성형 인공지능(AI) 챗GPT에 ‘AI의 발전이 디지털 불평등과 정보 격차를 심화시킬 것이라는 경고 메시지를 담은 이미지를 만들어 달라’고 지시하자 챗GPT가 내놓은 그림.
“안녕, 나는 인공지능(AI) 기초 교과를 담당하는 교수야.”(김성도 서울사이버대 드론·로봇융합학과 교수)

“안녕하세요! 인공지능 기초를 담당하시는 교수님, 어떻게 도와 드릴까요?”(챗GPT)

“너는 지금부터 나의 조교처럼 행동해 주길 바라.”(김 교수)

“네, 교수님. 조교 역할을 맡겠습니다. 교육과 관련된 도움이 필요하시면 말씀해 주세요.”(챗GPT)

“인공지능이 무엇인지 학생들이 알기 쉽게 설명해 줬으면 해. 아주 쉬운 용어로 설명해 주길 바라.”(김 교수)

“알겠습니다. 교수님. 인공지능에 대한 기본적인 개념을 쉽게 설명해 드리겠습니다.”(챗GPT)

#몰라요를 모르는 AI

질문 초기 역할 부여
답변의 방향성 설정


평소 생성형 AI 챗GPT를 수업 조교처럼 쓰는 김 교수는 챗GPT에게 무언가를 물어볼 때 이런 식으로 대화를 한다. 인간과 기계의 상호작용이긴 하지만 마치 사람과 대화를 하듯 감정을 이입하고 논리적으로 설명을 하면 챗GPT로부터 훨씬 더 좋은 결과물을 이끌어 낼 수 있다는 게 김 교수의 설명이다. 챗GPT에게 ‘인공지능은 무엇인가?’라고 곧바로 물어봤을 때와 결과물을 비교하니 답변이 확연히 달랐다.

4~5개월 전 챗GPT를 처음 접한 뒤 자신만의 활용법을 체득한 김 교수는 2일 “챗GPT는 모르는 걸 모른다고 하지 않는다. 그게 사람 조교와의 큰 차이”라고 말했다. 그러면서 “챗GPT에게 ‘네가 지금 어떤 역할을 수행하기를 기대한다’고 질문 초기 단계에 ‘역할 부여’를 하면 답변의 방향성, 한계가 설정된다”고 덧붙였다.

챗GPT로 대표되는 생성형 AI 시대가 열리면서 인간과 AI의 대화법이 주목받고 있다. 사용자가 조그마한 대화창을 통해 질문을 하면 AI가 답변을 하는 구조이지만 질문하는 방법, 수준에 따라 답변의 품질이 달라진다. 프롬프트(명령어)를 작성하는 능력이 중요해졌다는 얘기가 나오는 것도 이 때문이다. 질문의 기술이 아닌 질문의 격, 깊이, 맥락이 핵심 능력으로, 이는 해당 분야에 대한 ‘내공’을 쌓아야만 가능한 일이다.
이미지 확대
#호모 프롬프트 등장

생성형AI와 친숙한 신인류
‘질문 디자인’ 능력 중요


생성형 AI를 능숙하게 사용하면서도 AI에 미흡한 부분을 창의적으로 보완해 나갈 수 있는 인문학적 문해력을 갖춘 사람을 ‘호모 프롬프트’라고 부르기도 한다. ‘트렌드 코리아 2024’ 공저자인 이향은 LG전자 상무는 “앞으로 사람들은 손안에 ‘정답 자판기’를 들고 있을 것이다. 질문을 다르게 할 수 있는 역량이 필요하다”고 말했다. 컴퓨터 언어가 아닌 ‘일상의 언어’로 누구나 AI와 대화하는 시대가 도래하면서 질문을 디자인하는 창의력, 비판적 사고 능력, 사색력이 이전에 비해 더 중요해졌다는 의미다.

챗GPT를 사람 대하듯 하며 일을 지시할 경우 결과물이 더 좋다는 연구 결과도 있다. 구글 딥마인드가 대규모언어모델(LLM)을 대상으로 초등학교 수준의 수학 문제를 풀라고 하면서 “심호흡을 하고 이 문제를 단계적으로 풀어 보자”고 하자 정확도가 80.2%(구글 ‘팜2’ 기준)를 기록했다. 챗GPT와 대화하면서 ‘잘했어’, ‘좋아’라고 칭찬을 해 주면 답변 품질이 더 좋아진다는 주장도 있다.

유용균(한국원자력연구원 인공지능응용연구실장) Al프렌즈 대표는 “생성형 AI의 학습 원리는 책을 읽고 난 뒤 그다음 단어를 예측하는 것으로, 엄청나게 많은 데이터를 학습하다 보니 논리 구조나 문맥도 이해를 한다”면서 “AI와 일하는 것도 사람과 비슷한 면이 많다. AI에게 정확하게 역할을 부여하고 체계적으로 지시를 내리는 게 중요하다”고 말했다.

#할루시네이션 걸러라

그럴듯한 오답들 쏟아내
‘AI 오류’ 거를 능력 필요


AI가 내놓은 답을 검증할 수 있는 능력도 중요해졌다. 특히 환각 현상으로 불리는 ‘할루시네이션’(AI가 정보를 처리하는 과정에서 그럴듯한 오답을 내놓는 현상)을 걸러 낼 줄 아는 게 실력이 됐다.

하지만 전문가가 아니면 제대로 된 답변을 했는지 알아차리기가 쉽지는 않다. 한 대학교수가 지난해 2학기 강의를 준비하면서 챗GPT에게 ‘가족이라는 체계는 마치 하나의 모빌(유아용 흔들개비 장난감)과 같다고 말한 사람이 누구이며, 그 출처는 무엇인가’라고 묻자 “윌리엄 제임스의 저서 ‘심리학의 원리’에 나온 비유 중 하나입니다”라고 답했다. 뭔가 잘못됐다고 생각한 이 교수는 다시 ‘윌리엄 제임스의 책 몇 페이지에 쓰여 있느냐’고 물었고 챗GPT는 “해당 책의 310쪽에 나옵니다”라고 천연덕스럽게 답했다.

그러면 ‘이 비유를 구체적으로 어떻게 표현했는지 원문을 제시해 달라’고 하자 그제야 “제가 언급한 내용에 오류가 있었습니다. 심리학의 원리에는 ‘가족이라는 체계는 마치 하나의 모빌과 같다’는 특정 문구나 비유가 포함돼 있지 않습니다”라고 잘못을 인정했다고 한다.
김헌주·김민석·김희리 기자
2024-01-03 5면
많이 본 뉴스
공무원 인기 시들해진 까닭은? 
한때 ‘신의 직장’이라는 말까지 나왔던 공무원의 인기가 식어가고 있습니다. 올해 9급 공채 경쟁률은 21.8대1로 32년 만에 최저치를 기록했습니다. 공무원 인기가 하락한 이유는 무엇일까요?
낮은 임금
경직된 조직 문화
민원인 횡포
높은 업무 강도
미흡한 성과 보상
광고삭제
위로