OpenAI 사태의 교훈, 인공지능의 분열적이고 양극화된 특성의 위험성

A house divided over AI

리스크 인텔리전스 리뷰 승인 2024.02.09 18:47 의견 0

최근 OpenAI의 리더십 교체와 개편은 조직의 거버넌스와 리더십에 대한 경각심을 일깨워준다.

나의 책 (MIT 요시 셰피 교수의 저서) <매직 컨베이어 벨트: 공급망, 인공지능, 그리고 일의 미래>에서 공급망이라는 것은 독립된 실체로 생각하기 쉽지만, 실제로는 인간의 노동과 상호 관계에 기반한 복잡한 소셜 네트워크에 해당한다고 강조했다. 그리고 사슬은 가장 약한 고리만큼만 강하다(a chain is only as strong as its weakest link)는 말처럼 전체 공급망의 견고함 역시 가장 약한 고리(링크)가 그 수준을 좌우한다. 이번 OpenAI 사태에서 이러한 링크는 공급망의 흐름과는 아무런 관련이 없으며 회사 내부의 링크였다. OpenAI의 경우처럼 이사회와 경영진에서 일반직원으로 이어지는 연결 고리가 끊어지면 조직의 존립이 큰 위험에 처하게 된다.

OpenAI의 6명으로 구성된 비정상적 작은 이사회 구조는 알트먼의 축출을 조율한 소수의 사람들에게 권력을 집중시켰다. 이사회 구성원 중 단 한 명인 일리아 수츠케버 수석 과학자만이 회사와 직접적인 연관이 있었다. 이사회가 알트먼을 해고한 이유는 회사의 전략적 방향과 본질에 대한 의견 불일치 때문이었다. 그러나 분명한 것은 이사회가 자신들의 결정에 대한 반발이 얼마나 심각할지 전혀 예상하지 못했다는 것이다.

이 갈등 사태를 이사회 내의 소수의 활동가가 다수의 의사를 좌절시켰다는 관점에서 쉽게 설명할 수도 있겠지만, 특히 이사회가 알트먼을 해고하게 된 이유에 대한 자세한 설명이 없는 상황에서 그렇게 간단하지 않은것 같다. OpenAI는 알트만과 엘론 머스크가 설립한 비영리 단체로 시작했으며, 알트만 사태가 터지기 전까지 이사회 구성은 그대로 유지되고 있었다. 지금까지 드러난 내용을 보면, 반 알트만 이사회 멤버들은 인류를 위해 AI를 사용한다는 회사의 원래 사명을 우선시하는 파벌을 형성한 것으로 보이며, 여러 이사회 멤버가 기술 발전 속도의 잠재적 위험에 대해 공개적으로 우려를 표명했다. 반면, 알트만과 OpenAI의 직원들은 비영리 사명 외에도 상업적 성공과 회사 성장에 관심이 많았던 것으로 보인다.

https://www.linkedin.com/pulse/house-divided-over-ai-yossi-sheffi-wzzpe/

그러나 동기가 고귀한 것이든 그렇지 않든 간에 OpenAI 이사회는 알트먼이 복직하지 않으면 회사를 그만두겠다고 위협한 직원들의 정서를 이해하지 못했고, 그 중 무려 95%는 사직할 경우 취업 비자를 잃게 될 것이라고 위협했다. 이는 정말 놀라운 오산이었으며, OpenAI 이사회가 회사 조직 정서와 얼마나 크게 동떨어져 있었는지를 보여준다.

AI는 독특하게 분열적인 주제이며, 설렘과 두려움을 동시에 불러 일으킨다. 하지만 AI에 대한 의견이나 두려움에 관계없이 AI는 계속 존재할 것이다. 만약 OpenAI가 알트먼을 복직시키지 않았다면, 그와 OpenAI 직원들은 일자리를 약속한 OpenAI의 주요 투자자인 Microsoft로 갈 준비를 하고 있었다. 마이크로소프트가 아니어도 어딘가에서 다른 회사가 OpenAI 직원들을 받아들였을 것이 거의 확실하다. 이렇게 AI가 주도하는 세상에서 인간이 수행할 역할을 이해하는 것은 매우 중요한 일이다. 큰 변화에 직면한 조직, 직장 내 갈등은 피할 수 없으며, 특히 AI가 약속하는 것처럼 근본적인 변화에서는 더욱 그렇다.

궁극적으로, OpenAI의 이사회는 사임하고 회사를 그대로 유지하는 것이 더 낫다고 결정했다. 그러나 이러한 전체 에피소드는 AI가 얼마나 양극화되는지를 보여주고 있다. 알트먼의 해고에 대응하여 직원들이 이사회에 보낸 공개 서한을 믿는다면, 이사회는 "경영진에게 회사를 파괴하도록 허용하는 것이 '사명에 부합하는 것'이라고 통보했다."고 볼 수 있다.

그러나 이번 소동은 이해관계자 간의 조율이 얼마나 중요한지를 보여준다. 이사회, 경영진, 직원이 서로 상충하는 경우 기업은 생존할 수 없다. 게다가 AI의 양극화된 특성은 이해관계자 사이에 균열을 일으키거나 기존의 균열을 악화시켜 OpenAI에서와 같은 반란이 일어날 가능성을 높인다. OpenAI의 이사회는 회사 직원들의 의견을 경청하지 않았고, 결과적으로는 회사가 완전히 무너지는 것을 간신히 피할 수 있었다. 예를 들어, 자체 생성형 AI 도구인 Bard를 개발한 Google을 생각해 보자. 이 회사의 모토는 "해를 끼치지 않는다(Do no harm)" 이다. 이 원칙을 믿고 헌신하며 입사한 젊은 엔지니어들이 구글의 AI 제품이 사회에 도움이 되지 않고 오히려 해를 끼친다면 직원들의 반란이 일어날 수 있다.

나는 인공지능이 인간의 직업과 업무에 큰 변화를 가져올 수는 있겠지만 일반적으로 인간을 완전히 대체하지는 못할 것이라는 글을 썼다. 따라서 기업이 번영까지는 아니더라도 생존하기 위해 모든 이해관계자가 회의석상에 나와 AI가 가져올 근본적인 변화에 적응하는 과정에서 대다수의 이해관계자에게 이익이 되는 방향으로 협의해야 한다. 변화를 주저하거나 느리게 도입하는 기업은 스스로 위험을 감수해야 할 수도 있다. 이러한 기술 변화로 인해 피해를 입을 가능성이 있는 사람들에게 특히 주의를 기울여야 한다. 이는 기술 업그레이드, 직업 전환 또는 정부의 직접적인 지원을 통해 이루어질 수 있다. 현 시점에서 우리는 어떤 일자리가 사라지거나 탈숙련화될지 어느 정도 짐작할 수 있지만, 과거의 모든 기술 발전과 산업 혁명이 그랬듯이 어떤 새로운 산업과 새로운 일자리가 등장할지 알기에는 아직 너무 이르다.


출처 : MIT 요시 셰피 교수 링크드인 글 A house divided over AI https://www.linkedin.com/pulse/house-divided-over-ai-yossi-sheffi-wzzpe/

저작권자 ⓒ 리스크인텔리전스리뷰, 무단 전재 및 재배포 금지