AI가 선거를 장악하는 방법
AI 기반 정치 캠페인은 모든 사람에게 모든 것이 될 수 있습니다
다음 에세이는 최신 연구를 다루는 온라인 간행물인 The Conversation의 허가를 받아 재인쇄되었습니다. Scientific American의 작가가 수정한 것이므로 원본과 다를 수 있습니다.
조직에서 ChatGPT와 같은 인공 지능 언어 모델을 사용하여 유권자가 특정 방식으로 행동하도록 유도할 수 있습니까?
Josh Hawley 상원의원은 2023년 5월 16일 인공 지능에 관한 미국 상원 청문회에서 OpenAI CEO Sam Altman에게 이 질문을 했습니다. Altman은 일부 사람들이 유권자와 일대일 상호 작용을 조작하고, 설득하고, 참여하기 위해 언어 모델을 사용할 수 있다는 점을 정말로 우려하고 있다고 답했습니다.
다음은 Altman이 구상/생각했을 수 있는 시나리오입니다. 곧 정치 기술자들이 Clogger라는 기계를 개발한다고 상상해 보십시오. 이는 블랙 박스 속의 정치 캠페인입니다. Clogger는 단 하나의 목표를 끊임없이 추구합니다. 바로 Clogger Inc.의 서비스를 구매하는 캠페인인 후보자가 선거에서 승리할 가능성을 최대화하는 것입니다.
Facebook, Twitter, YouTube와 같은 플랫폼은 사용자가 사이트에서 더 많은 시간을 보낼 수 있도록 AI 형식을 사용하지만 Clogger의 AI는 사람들의 투표 행동을 바꾸는 다른 목표를 가지고 있습니다.
기술과 민주주의의 교차점을 연구하는 정치학자이자 법학자로서 우리는 Clogger와 같은 것이 자동화를 사용하여 2000년대 초반부터 정치 캠페인에서 사용했던 행동 조작 및 마이크로 타겟팅 기술의 규모와 효율성을 극적으로 높일 수 있다고 믿습니다. . 광고주가 귀하의 탐색 및 소셜 미디어 기록을 사용하여 이제 상업 및 정치 광고를 개별적으로 타겟팅하는 것처럼 Clogger는 귀하와 수억 명의 다른 유권자에게 개별적으로 주의를 기울일 것입니다.
이는 현재의 최첨단 알고리즘 동작 조작에 비해 세 가지 향상된 기능을 제공합니다. 첫째, 언어 모델은 개인적으로 맞춤화된 메시지(텍스트, 소셜 미디어, 이메일, 이미지 및 비디오 포함)를 생성합니다. 광고주는 상대적으로 적은 수의 광고를 전략적으로 배치하는 반면, ChatGPT와 같은 언어 모델은 캠페인 과정에서 개인적으로, 다른 사람에게는 수백만 개의 고유한 메시지를 셀 수 없이 생성할 수 있습니다.
둘째, Clogger는 강화 학습이라는 기술을 사용하여 투표를 변경할 가능성이 점점 더 높아지는 메시지를 생성합니다. 강화 학습은 목표 달성 방법을 학습하기 위해 컴퓨터가 조치를 취하고 어떤 작업이 더 나은지에 대한 피드백을 받는 기계 학습, 시행착오 접근 방식입니다. 인간보다 바둑, 체스 및 많은 비디오 게임을 더 잘할 수 있는 기계는 강화 학습을 사용했습니다. 그리고 마지막으로 캠페인 과정에서 Clogger의 메시지는 이전 파견에 대한 사용자의 반응과 변화에 대해 배운 내용을 고려하도록 진화할 수 있습니다. 다른 사람의 마음. Clogger는 시간이 지남에 따라 귀하 및 수백만 명의 다른 사람들과 역동적인 "대화"를 계속할 것입니다. Clogger의 메시지는 다양한 웹사이트와 소셜 미디어에서 귀하를 따라다니는 광고와 유사합니다.
세 가지 추가 기능 또는 버그는 주목할 가치가 있습니다.
첫째, Clogger가 보내는 메시지는 정치적일 수도 있고 아닐 수도 있습니다. 기계의 유일한 목표는 투표 점유율을 최대화하는 것이며, 인간 운동가가 고려하지 않은 이 목표를 달성하기 위한 전략을 고안할 가능성이 높습니다.
한 가지 가능성은 반대 유권자에게 스포츠나 엔터테인먼트에 대한 비정치적 열정에 대한 정보를 보내 그들이 받는 정치적 메시지를 묻어두는 것입니다. 또 다른 가능성은 상대방의 메시지와 일치하는 시간에 맞춰 불쾌한 메시지(예: 요실금 광고)를 보내는 것입니다. 그리고 또 다른 방법은 유권자의 소셜 미디어 그룹을 조작하여 유권자의 가족, 이웃, 친구가 후보자를 지지한다는 느낌을 주는 것입니다.
둘째, Clogger는 진실을 고려하지 않습니다. 사실, 무엇이 진실인지 거짓인지 알 수 있는 방법이 없습니다. 언어 모델 "환각"은 이 기계의 목적이 정확한 정보를 제공하는 것이 아니라 투표를 변경하는 것이므로 문제가 되지 않습니다.