AI의 치명적인 위험 방지: 회사 내부 고발자가 경보를 울릴 수 있도록 지원

인공 지능( AI ) 기술 의 급속한 발전이 계속해서 세계를 사로잡으면서, 점점 더 많은 전문가들이 이러한 강력한 시스템을 방치할 경우 초래할 수 있는 잠재적으로 치명적인 위험에 대해 경종을 울리고 있습니다 . 선거를 뒤집을 수 있는 설득력 있는 딥페이크를 생성하는 능력부터 AI 기반 무기가 통제 불능 상태에 빠질 가능성에 이르기까지 이 기술에 내재된 위험은 점점 더 분명해지고 있습니다. 그러나 이러한 위험을 완화하는 데 필요한 감독과 규제는 AI 개발의 엄청난 속도를 따라가는 데 어려움을 겪었습니다.

이러한 불확실성의 환경 속에서 AI 혁신의 최전선에 있는 조직 내 내부 작업 및 의사결정 프로세스에 대한 직접적인 지식을 갖고 있는 회사 직원과 경영진의 비판적인 목소리가 나타났습니다. 자신의 우려를 잠재우기 위해 비방 금지 협약에 서명하도록 강요받은 이들 개인은 이제 AI가 사회에 가하는 매우 현실적이고 긴급한 위협에 대해 대중에게 경고하기 위해 나서고 있습니다.

내부고발자들이 말하다

그러한 내부 고발자 중 한 명은 획기적인 ChatGPT를 개발한 회사인 OpenAI 의 전직 연구원인 Daniel Kokotajlo입니다 . Kokotajlo는 AI와 관련된 잠재적으로 심각한 위험으로부터 책임감 있게 보호하는 회사의 능력에 대한 신뢰가 부족하다는 이유로 직위를 사임했습니다. 공개 성명에서 그는 OpenAI가 “빠르게 움직이고 파괴하는” 사고방식을 수용하고 있다고 비난했는데, 이는 AI만큼 강력하고 잘 이해되지 않는 기술에 필요한 것과 정반대라고 믿었습니다.

Kokotajlo의 발언 결정은 상당한 개인적 비용을 초래했습니다. 그는 OpenAI로부터 그를 효과적으로 침묵시킬 수 있는 비공개 계약에 서명하라는 압력을 받았고 회사는 170만 달러 상당의 그의 기득권을 취소하겠다고 위협했습니다. 그럼에도 불구하고 Kokotajlo는 기술에 대한 우려를 공개적으로 표현할 권리를 유지하기 위해 이러한 상당한 재정적 횡재를 포기하기로 결정했습니다.

감독과 규제의 긴급한 필요성

코코타일로의 이야기는 고립된 사건이 ​​아닙니다. 전 OpenAI 직원에 따르면 회사는 직원이 회사 관행에 대해 침묵을 지키겠다고 동의하지 않으면 직원의 기득권을 취소하겠다고 위협한 이력이 있습니다. 이러한 골치 아픈 패턴은 AI 산업에 대한 효과적인 감독 및 규제가 부족하다는 광범위한 문제를 강조합니다.

하버드 로스쿨 교수이자 저자인 로렌스 레시그(Lawrence Lessig)는 다음과 같이 지적합니다. “AGI(일반 인공 지능) 분야에서 운영되는 회사는 오늘날 미국에서 규제가 가장 적고 본질적으로 위험한 회사 중 하나입니다. 기업이 기술을 어떻게 개발하는지, 어떤 예방 조치를 취하고 있는지를 감시할 법적 권한을 가진 기관이 없습니다.” 이러한 규제 공백으로 인해 대중은 거의 책임을 지지 않고 세기의 가장 중요한 기술 발전을 달성하기 위해 경쟁하고 있는 이들 기업의 손에 맡겨졌습니다.

“경고할 권리” 서약

이러한 놀라운 상황에 대응하여 Kokotajlo와 현직 및 전 OpenAI 직원 그룹은 회사 직원이 보복에 대한 두려움 없이 안전 문제를 제기할 수 있도록 하는 것을 목표로 하는 “경고할 권리” 서약을 내놓았습니다. 서약에서는 다음을 요구합니다.

  1. 비방 금지 계약 철회 : 회사는 직원이 회사의 안전 관행을 공개적으로 비판하는 것을 방해하는 비방 금지 계약을 철회하기로 약속해야 합니다.
  2. 익명 보고 채널 구축 : 기업은 직원과 전직 직원이 안전 문제를 이사회, 규제 기관, 독립적인 AI 안전 조직에 직접 제기할 수 있는 익명 메커니즘을 만들어야 합니다.
  3. 열린 비판 문화 조성 : 기업은 회사의 지적 재산을 보호하는 한 직원과 전직 직원이 안전 문제에 대해 목소리를 낼 수 있도록 장려하여 ‘열린 비판 문화’를 적극적으로 지원해야 합니다.
  4. 내부 고발자 보호 : 회사는 위험 관련 문제를 제기할 때 기밀 정보를 공유하는 직원에 대해 보복하지 않겠다고 서약해야 합니다. 단, 직원이 먼저 회사에서 확립한 비밀 및 익명 프로세스를 통해 우려 사항을 전달해야 합니다.

직원 역량 강화의 중요성

“경고할 권리” 서약은 AI 산업 규제에 접근하는 방식에 있어 중요한 변화를 나타냅니다. 회사 직원에게 AI의 치명적인 위험에 대한 최전선 방어선 역할을 하도록 권한을 부여함으로써 대중이 완전히 이해하지 못할 수 있는 위험을 식별하고 완화하는 데 이러한 내부자가 수행할 수 있는 중요한 역할을 인정합니다.

Lessig가 지적한 것처럼, “일반적인 내부 고발자 보호는 자체적으로 규제되지 않는 행위를 포함하지 않습니다. 따라서 이들 회사에 대한 효과적인 규제가 없는 한 회사가 무시하고 있는 위험을 식별할 수 있는 사람은 직원뿐입니다.” “경고할 권리” 서약은 이러한 개인들이 우려 사항을 제기할 수 있는 구조화되고 보호되는 경로를 마련함으로써 AI의 급속한 발전과 느린 규제 감독 속도 사이의 격차를 해소하는 것을 목표로 합니다.

내부고발자가 직면한 과제

물론 회사 직원들이 AI의 위험에 대해 목소리를 낼 수 있도록 권한을 부여하는 데 어려움이 없는 것은 아닙니다. 내부고발자는 공식적인 보호를 받더라도 자신의 행동으로 인해 개인적으로나 직업적으로 중대한 결과에 직면하는 경우가 많습니다. Lessig는 다음과 같이 말합니다. “내부고발자는 일부 사람들로부터 존경을 받더라도 좋아하는 동료는 아닙니다. 그리고 공식적인 보호를 받더라도 목소리를 내기로 한 선택은 필연적으로 미래의 고용 기회와 우정에 영향을 미칩니다.”

이러한 현실은 이들 개인을 보복으로부터 보호할 뿐만 아니라 더 큰 이익을 위한 그들의 용기와 헌신을 기념하는 지원 생태계를 만드는 것이 중요하다는 점을 강조합니다. AI 산업 내에서 열린 대화와 책임의 문화를 조성함으로써 기업은 내부 고발과 관련된 내재된 위험을 극복하고 더 많은 직원이 우려 사항을 제기하도록 장려할 수 있습니다.

규제 및 감독의 역할

결국 AI 리스크 위기에 대한 해결책은 기업 내부고발자에게만 달려있을 수는 없다. Lessig는 다음과 같이 주장합니다. “민간 기업이 재앙적 위험보다 더 큰 이익을 추구하지 않도록 하기 위해 자기희생에 의존하는 것은 불공평합니다. 이것이 규제의 임무이다.” 효과적인 감독과 규제의 부재로 인해 대중은 AI의 잠재적 위험에 취약해졌으며, 이러한 심각한 격차를 해결하는 것은 정책 입안자와 정부 기관의 몫입니다.

행동할 의무

스테이크는 더 높을 수 없습니다. 전문가들이 경고했듯이 AI로 인한 위험은 대규모 사이버 범죄와 새로운 형태의 전쟁부터 잠재적인 인류 멸종에 이르기까지 다양합니다. 이는 단순한 공상 과학 시나리오가 아니라 우리의 즉각적인 관심을 요구하는 매우 현실적이고 현재의 위험입니다.

회사 내부고발자에게 경보를 울릴 수 있는 권한을 부여하고 AI의 개발 및 배포를 관리하는 강력한 규제 프레임워크를 구축함으로써 우리는 이 기술이 제시하는 치명적인 위험을 완화하기 시작할 수 있습니다. 이는 어려운 도전이지만 우리의 현재와 미래를 위해 정면으로 맞서야 할 도전입니다. 확인되지 않은 AI 발전의 재앙적인 결과가 현실이 되기 전, 지금이 행동해야 할 때입니다.

결론

AI의 위험을 가볍게 여겨서는 안 됩니다. 기술이 엄청난 속도로 계속 발전함에 따라 치명적인 피해의 가능성이 그 어느 때보다 현실적이었습니다. 회사 내부 고발자에게 발언 권한을 부여하고 효과적인 규제 감독을 구현함으로써 우리는 AI로 인한 긴급 위협을 해결하고 이 기술의 엄청난 이점이 책임감 있고 윤리적인 방식으로 실현되도록 보장할 수 있습니다.

우리 사회의 미래, 어쩌면 인류의 존재 자체가 위기에 처해 있습니다. 이제 우리는 전문가들의 경고에 귀를 기울이고, AI 산업의 내부 활동을 지켜본 사람들의 목소리에 귀를 기울이고, 우리 집단의 미래를 보호하기 위해 결단력 있는 조치를 취해야 할 때입니다. 우리가 가만히 있기에는 위험이 너무 크고 결과가 너무 끔찍합니다. 사회 전체가 함께 모여 이러한 도전에 정면으로 맞서고 AI의 약속이 위험한 위험으로 인해 가려지지 않도록 합시다.

Related Blog

ko_KR한국어