본문 바로가기
AI

"학벌 필요없어요." AI시대에 주목받는 진짜 역량ㅣ지식인초대석 EP.61 (이상욱 교수)

by 청공아 2025. 11. 28.
반응형

* AI 시대에 학벌보다 주목받는 진짜 역량은 무엇인가?

AI 시대에 경쟁력이 되는 것은 AI가 생성한 결과물에 대해 스스로 확인하고 잡아낼 수 있는 능력이며, 이는 AI를 현명하게 사용하는 방법과 연결됩니다

* AI의 환각(Hallucination) 현상에 대한 설명과 대응 방안은?

  • 환각은 AI 아키텍처의 특징으로, 참과 거짓을 구분하지 않고 가장 자연스러운 다음 말을 생성하는 능력에서 비롯되며, 줄일 수는 있어도 완전히 없앨 수는 없습니다.
  • 대응 방안으로는 질문 시 자신의 관심사나 알고 있는 정보를 포함하여 구체적으로 질문하고, 답변에 대해 추가 질문을 통해 유도하거나, 중요한 사안에서는 최종적으로 스스로 확인하는 '모드 전환'이 필요합니다.

 

AI 시대의 진정한 역량이 무엇인지 궁금하다면, 이 콘텐츠가 명확한 해답을 제시합니다. 한양대학교 이상욱 교수님은 AI가 단순 반복 작업뿐 아니라 복잡한 전문 분야까지 대체하는 현실을 짚으며, 줄어드는 일자리 개수보다 기존 직업의 직능 변화에 주목해야 한다고 강조합니다. 특히 AI의 환각(Hallucination) 현상을 단순한 오류가 아닌 창의성의 원천으로 활용하는 법과, AI 시대에 필요한 질문 능력 및 비판적 사고를 키우는 실용적인 방법을 배울 수 있습니다. AI 기술 발전만큼이나 중요한 제도적 통제와 사회적 합의의 필요성을 역설하며, 우리가 AI를 어떻게 활용하고 통제해야 할지에 대한 깊이 있는 통찰을 제공합니다.

 

1. AI 시대의 직업 변화와 AGI의 개념

 

1.1. AI의 직업 대체 현상과 AGI의 정의

  1. AI의 직업 대체 현상에 대한 오해:
    1. 많은 사람들이 AI가 단순 반복 작업만 잘하고 어려운 일은 사람이 해야 한다고 오해한다.
    2. 그러나 AI는 단순 반복 작업뿐 아니라 복잡한 전문 분야까지 처리할 수 있다.
    3. 실제로 IT 개발자 채용이 줄어들고 있으며, 이는 사람들이 안전하다고 생각했던 분야에서 일어나고 있는 역설적인 현상이다.

 

  1. AGI(인간 수준 범용 지능)의 개념:
    1. AGI는 말하는 사람마다 다르게 정의되지만, 일반인들은 SF 영화 속 안드로이드 로봇의 인공지능을 떠올리기 쉽다.
    2. 그러나 로봇 기술과 인공지능 기술은 다르며, 로봇은 물리적 공간을 움직이고 인공지능은 온라인상에 존재한다.
    3. 컴퓨터 과학자들은 AGI를 '잘 정의된 과업이라면 어떤 내용이든 다 처리할 수 있는 인공지능'으로 정의한다.

 

  1. 특수 인공지능(ASI)과 일반 인공지능의 차이:
    1. 특수 인공지능: 알파고처럼 특정 분야(바둑)에서 탁월한 성능을 보이지만, 다른 분야(의료)로 훈련시키면 기존 분야의 능력을 잃는다.
      1. 이는 훈련을 통해 특정 작업에 최적화된 설정을 변경해야 하기 때문이다.
    2. 일반 인공지능: 잘 정의된 문제를 주기만 하면 별도의 훈련 없이도 다양한 과업을 수행할 수 있는 인공지능을 의미한다.
    3. ChatGPT의 한계: ChatGPT는 다양한 질문에 답하지만, 환각(Hallucination) 현상이나 오류가 있어 아직 완벽하지 않다.
      1. ChatGPT는 질문 내용을 바탕으로 검색하여 정보를 조합해 답변을 생성한다.
      2. 인간은 특정 분야에서 전문가가 아니더라도 대부분의 일을 대략적으로 수행할 수 있지만, 인공지능은 아직 이 수준에 도달하지 못했다.
    4. 일반 인공지능의 꿈: 인공지능이 인간처럼 거의 모든 일을 대략적으로라도 수행할 수 있도록 하는 것이 일반 인공지능의 목표이다.

 

1.2. AGI 개발의 현실적 갈등과 AI 에이전트의 부상

  1. 기술자와 투자자 간의 갈등:
    1. 기술자들은 AGI 개발을 꿈꾸지만, 투자자들은 투자금 회수를 위해 수익 창출이 가능한 분야에 집중하기를 원한다.
    2. 투자자들은 AGI보다는 당장 돈을 벌 수 있는 AI 에이전트 개발에 압력을 가하고 있다.

 

  1. AI 에이전트의 유용성:
    1. AI 에이전트는 특정 기능에 특화된 인공지능으로, 사용자에게 더 유용하게 활용될 수 있다.
    2. 빅테크 기업들은 당분간 AI 에이전트 개발 방향으로 나아갈 것으로 예상된다.
    3. AI 에이전트가 특정 분야에서 한 사람 몫의 일을 할 것으로 기대되면서, 일자리 감소에 대한 우려가 커지고 있다.

 

2. AI 시대의 직업 변화와 인력 재교육의 중요성

 

2.1. AI로 인한 직업 기능 변화와 탈숙련 문제

  1. AI의 직업 대체 현실:
    1. AI는 사람들이 가장 안전하다고 여겼던 예술 분야와 IT 개발 분야에서 먼저 직업을 대체하고 있다.
    2. 판교의 IT 개발자 채용이 줄어드는 이유는, 신입 개발자 훈련 비용보다 AI 에이전트 활용 비용이 더 저렴하기 때문이다.

 

  1. 인간 대체와 탈숙련 문제:
    1. AI가 인간을 완전히 대체하는 것은 아니며, AI를 가르치고 활용할 수 있는 경력 5년 이상의 숙련된 기술자는 여전히 필요하다.
    2. 그러나 기업의 비용 절감 노력으로 인해 신입 채용이 줄어들면, 장기적으로 AI에게 일을 지시하고 감독할 수 있는 숙련된 기술자가 사회 전체적으로 부족해지는 '탈숙련' 문제가 발생할 수 있다.

 

2.2. 사회적, 교육적 대응 방안

  1. 사회 전체적인 핵심 역량 유지 방안:
    1. 효율성만을 추구하여 AI 대체만을 허용하기보다는, 프로그램 감독 및 설계와 같은 핵심 역량을 가진 인력을 유지할 방안을 고민해야 한다.
    2. 기업 차원의 효율성에만 맡기기보다, 사회 전체적으로 AI 활용 역량을 키울 수 있는 제도적 방안을 마련하고 실천해야 한다.

 

  1. 학교 교육의 변화 필요성:
    1. 중학교, 고등학교부터 AI를 컨트롤하는 훈련을 시켜야 한다.

 

  1. AI 활용 교육의 중요성:
    1. 최근 대학생들은 ChatGPT 유료 버전은 헛소리를 하지 않는다고 오해하는 경향이 있다.
    2. AI를 현명하게 사용하는 방법을 가르쳐야 하며, AI에 과도하게 의존하면 스스로 할 수 있는 일이 없어진다.
    3. AI가 요약한 내용의 오류를 잡아낼 수 있도록, 책을 읽고 요약하는 능력과 같은 기본적인 역량을 스스로 연습해야 한다.
    4. 이러한 능력은 AI 시대의 중요한 경쟁력이 된다.

 

  1. UN 보고서의 핵심 내용:
    1. AI는 거의 모든 직업에서 활용될 수 있으며, UN 보고서에서도 이 점을 강조한다.
    2. 향후 30년간 일자리 개수가 최대 30% 줄어들 수 있지만, 더 중요한 것은 기존 직업의 '직능 변화'에 주목해야 한다는 것이다.
    3. 예를 들어, 교사는 AI에게 효율적인 업무를 위임하고, 학생들의 정서적 발달을 돕거나 AI 활용법을 가르치는 등 직능이 변화할 것이다.
    4. 정부와 관련 단체는 기술 도입에만 집중하지 말고, 인력 재교육과 직능 변화에 대비해야 한다.
    5. 과거에도 운전 기술처럼 특정 기술이 보편화되면서 직업의 형태가 변했지만, 해당 분야를 극상으로 잘하는 사람은 살아남았다.

 

3. AI의 한계와 환각(Hallucination)의 양면성

 

3.1. AI의 평가 능력 한계와 환각의 본질

  1. AI의 평가 능력 한계:
    1. AI는 어떤 일이 어렵고 쉬운지 알지 못하며, 훈련 데이터의 양과 질, 잘 정의된 목적 함수에 따라 복잡한 작업도 잘 수행한다.
    2. 그러나 AI는 '평가'를 매우 어려워한다.
    3. 이미지 생성 AI가 여러 개의 결과물을 내놓을 때, AI는 이들을 동등하게 여기며 좋은 것과 나쁜 것을 스스로 평가하기 어렵다.
    4. 생성 AI의 마지막 단계에는 '휴먼 피드백 강화 학습'이 필수적이다.
      1. 인간이 AI의 답변 중 좋은 것과 나쁜 것을 가르쳐 주어 AI의 성능을 향상시킨다.
    5. 이는 AI에게 인간 입장에서 좋은 답과 나쁜 답을 스스로 판단하게 하는 능력이 매우 어려운 기술임을 의미한다.
    6. 따라서 특정 분야의 전문성을 가진 인간이 '이유를 대며' 더 좋은 답을 평가하는 능력은 AI 시대에도 여전히 중요하다.

 

  1. AI 환각(Hallucination)의 본질:
    1. AI 환각은 인공지능이 거짓말을 하는 것이 아니라, 참과 거짓을 구분하지 않고 가장 자연스러운 말을 생성하는 기술적 특징이다.
    2. AI는 참 거짓 필터가 없으며, 주어진 내용에 비추어 가장 자연스럽게 따라올 말들을 만들어낸다.
    3. 기술자들은 AI가 원래 헛소리를 해야 정상이라고 보지만, 많은 노력을 통해 참말을 상당히 많이 하게 만든 것이다.
    4. 환각은 AI 아키텍처 자체의 한계이므로, 줄일 수는 있어도 완전히 없앨 수는 없다.
    5. 따라서 AI 결과물에 100% 의존할 수 없으며, 결정적인 순간에는 반드시 확인해야 한다.
    6. 환각은 프로그램 버그가 아니라 기술적 특징임을 항상 기억하고 사용해야 한다.

 

  1. 환각 감소를 위한 노력:
    1. 퍼플렉시티(Perplexity)와 같이 근거를 제시하는 AI는 신뢰성이 높지만, 완벽하지는 않다.
    2. 이러한 AI는 질문과 유사한 콘텐츠를 먼저 찾아 질문 앞에 삽입하여 생성 범위를 제한함으로써 환각을 줄인다.
    3. 그러나 최종 단계는 여전히 생성 과정이므로, 100% 제거는 불가능하다.

 

3.2. 환각의 긍정적 측면과 활용 방안

  1. 환각의 창의성 원천:
    1. 환각은 세상에 없는 것, 물리적으로 불가능한 것을 만들어낼 수 있는 능력으로, 예술 분야에서 특히 생산적이다.
    2. 예술가들은 AI의 환각 능력을 활용하여 기존에 없던 새로운 아이디어나 플롯, 이미지를 창조한다.
    3. AI는 예술가에게 단순한 도구가 아닌, 창조성을 가진 '동지' 또는 '협력자' 역할을 한다.
      1. 인간이 주도권을 가지지만, AI의 답변을 통해 새로운 영감을 얻고 생각을 발전시킬 수 있다.

 

  1. 환각의 비용 절감 효과:
    1. 영화 제작 등에서 AI를 활용하면 비용을 크게 절감할 수 있다.
    2. 예를 들어, 배우의 연기는 그대로 두고 배경만 AI로 변경하여 재촬영 비용을 줄일 수 있다.
    3. 환각을 무조건 나쁜 것으로 단정하기보다는, 과도하게 의존하지 않고 생산적으로 활용할 방법을 모색해야 한다.

 

4. AI 시대의 개인적, 사회적 대응 전략

 

4.1. AI 환각에 대한 개인적 대응 방법

  1. 질문 능력 향상:
    1. AI에 질문할 때 자신의 관심사, 이미 알고 있는 정보 등을 구체적으로 포함하여 답변을 제한하고 특정화해야 한다.
    2. AI의 답변이 의심스러울 경우, 추가 질문을 통해 확인하고 더 정확한 답으로 유도하는 능력을 키워야 한다.

 

  1. 단계별 활용 전략:
    1. 문제 규정이 어렵거나 해결 방법을 모르는 초기 탐색 단계에서는 AI를 자유롭게 활용한다.
    2. 그러나 중요한 자리에서의 발표나 개인의 위신이 걸린 문제에서는 AI 내용을 반드시 확인해야 한다.

 

4.2. 알고리즘 편향 문제와 제도적 통제 필요성

  1. 알고리즘 편향 문제:
    1. 유튜브와 같은 플랫폼의 추천 알고리즘은 사용자의 시청 기록을 기반으로 편향된 콘텐츠를 추천하여 '필터 버블'이나 '에코 챔버' 현상을 유발한다.
    2. 이는 사용자가 다양한 정보를 접할 기회를 제한하고, 자신의 선택권을 자율적으로 행사하는 것을 방해할 수 있다.

 

  1. 대응책으로서의 투명성과 통제권:
    1. 과거 레거시 미디어는 공정보도 원칙에 따라 논쟁적인 사안의 양론을 균형 있게 보도하여 사람들이 다양한 관점을 접하게 했다.
    2. 그러나 유튜브와 같은 플랫폼에서 이를 강제하기는 어렵다.
    3. 현재 많은 사람들이 요구하는 대응책은 두 가지이다.
      1. 투명성: AI가 어떤 원리로 콘텐츠를 추천하는지 투명하게 공개해야 한다.
      2. 개인 통제권: 사용자가 추천 알고리즘의 일부를 직접 조종할 수 있게 해야 한다.
        1. 예를 들어, 특정 유형의 콘텐츠를 더 이상 추천하지 않거나, 자신의 생각과 다른 콘텐츠를 일정 비율로 추천하도록 설정할 수 있어야 한다.
    4. 이러한 요구사항은 아직 제대로 지켜지지 않고 있다.

 

  1. 개인 정보 수집 문제:
    1. 인터넷 쇼핑몰 등에서 사용자의 대화 내용과 관련된 광고가 뜨는 현상은 휴대폰 마이크를 통한 정보 수집 때문으로 추정된다.
    2. 기업들은 공식적으로 인정하지 않지만, 구글 약관 등에서 '서비스 품질 향상을 위한 데이터 수집' 조항을 통해 동의를 얻었다고 주장할 수 있다.
    3. 이는 AI가 사용자의 대화를 듣고 관련 콘텐츠를 추천하는 방식으로 이루어진다.
    4. 휴대폰 마이크가 없는 컴퓨터에서도 구글 계정 연결을 통해 휴대폰이 들은 정보가 컴퓨터로 전달되어 추천 콘텐츠로 나타날 수 있다.
    5. 기업들은 이를 소비자에게 더 좋은 서비스를 제공하기 위한 것이라고 주장할 가능성이 높다.

 

  1. 제도적 해결 방안:
    1. 개인 정보 수집 문제는 제도적으로 해결해야 한다.
    2. 기업들은 정보 수집 여부를 투명하게 공개하고, 광고 게시에 대한 동의 여부를 명확히 물어야 한다.
    3. 이러한 동의 절차를 거치면 대부분의 사용자가 동의하지 않을 것이므로, 이는 제도적으로 풀어야 할 문제이다.

 

4.3. AI의 미래와 사회적 노력

  1. AI의 미래는 우리가 만들어야 한다:
    1. AI의 미래는 정해져 있지 않으며, 우리가 AI를 행복하게 만들어 주도록 노력해야 한다.
    2. AI 기술 개발 과정에서 거버넌스를 잘 구축하여 우리가 소중히 여기는 가치를 존중하고 증진시키는 방향으로 나아가야 한다.

 

  1. 국가적, 개인적 노력의 필요성:
    1. AI 기술 발전과 더불어, 기술의 방향과 통제에 대한 규정을 국가적 합의를 통해 만들어가야 한다.
    2. 기술 개발, 제도 마련, 실천, 리터러시(문해력) 향상 등 다각적인 노력이 필요하다.
    3. 정부는 다양한 가능성을 제공하는 역할을 하고, 개인은 이러한 기회를 적극 활용하여 자신의 역량을 최대한 끌어올려야 한다.

 

  1. 정부의 AI 정책 방향:
    1. 최근 정부는 AI의 혁신적 가치와 국가 경제 발전에 대한 중요성을 인식하고 있다.
    2. 단순히 AI 기술 투자에 그치지 않고, AI가 야기할 수 있는 문제점, 사람들의 기대와 두려움 등을 공론장을 통해 수렴하고 정책으로 만들어내는 노력을 하고 있다.
    3. 이러한 노력들이 더욱 적극적으로 이루어져야 한다.

 

  1. 도전 과제 해결의 중요성:
    1. 모든 시대에는 도전 과제가 있었고, 과거의 어려움은 해결되었기에 쉬워 보일 뿐이다.
    2. 현재 AI 시대의 과제를 잘 해결해 나가야 한다.
반응형