
수 신 |
각 언론사 정치부·사회부 |
발 신 |
30개 단체 (참여연대 담당 : 이지은 간사 02-723-0666, 정보인권연구소 담당: 장여경 상임이사 02-701-7687) |
제 목 |
[보도자료] 시민사회, 21대 대통령선거 디지털·AI 시대 민주주의 정책 요구 |
날 짜 |
2025.4.30.(총 11 쪽) |
보 도 자 료 |
“AI 시대 민주주의와 인권을 말하는 대통령이 필요하다”
21대 대통령선거 디지털·AI 시대 민주주의 정책 요구
알고리즘 편향, AI 안전·실업, 개인정보 오남용 문제 갈수록 심각
차기 정부, 시민 권리와 환경 희생 없는 디지털 민주주의 국가 지향해야 |
- 오늘(4/30) 전국의 30개 인권· 노동· 언론· 환경· 소비자 등 시민사회단체는 오전 11시 종로구 참여연대 아름드리홀에서 <“AI 시대 민주주의와 인권을 말하는 대통령이 필요하다” 시민사회, 21대 대통령선거 디지털·AI 시대 민주주의 정책 요구> 기자회견을 갖고 차기 정부가 수립해야 할 디지털·AI 정책을 제안했다. 21대 대선을 앞두고 후보자들이 AI 진흥 정책을 너도나도 내놓고 있다. 하지만 대부분의 AI 정책들은 AI의 혜택을 부각시키며 AI 산업의 진흥에 주력하고 있다. 단체들은 급속히 발전하는 AI가 우리 사회에 미칠 영향에는 혜택과 위험이 모두 있을 수밖에 없다고 지적했다. 따라서 국가 정책은 이 두 가지 측면을 균형있게 반영해야 한다고 주장했다.
- 사회 곳곳에서 활용되는 AI에 직간접적으로 영향을 받는 시민에 대한 고려가 반드시 있어야 한다. 그럼에도 AI 정책은 주로 전문가 주도의 경제중심적이고 기업 위주의 기술정책 거버넌스에서 정해지고 있다고 단체들은 지적했다. 이 과정에서 실제로 인공지능의 영향을 받는 국민들은 배제되어 왔다는 설명이다. 단체들은 행정, 교육, 복지 등 공공분야뿐 아니라 사회곳곳에서 알고리즘이 사람을 평가하고 결정하고, 로봇들이 점점 더 삶과 노동 공간에 등장하고 있으며, 알고리즘이 장악한 공론장, 딥페이크 기술과 결합한 보이스피싱, 디지털성폭력 등의 문제가 심화되고 있다고 평가했다. 이미 무시할 수 없는 이와 같은 문제들을 기업의 선의나 자율에만 맡겨둘 수는 없다는 진단이다. 이에 단체들은 차기 정부가 그동안 경제·기술 중심적 디지털·AI 정책에서 실제로 영향을 받는 시민들을 반드시 고려하는 인권과 민주적 디지털·AI 시대를 열어야 한다고 주장했다.
- 단체들은 차기 정부에서 추진해야 할 주요 디지털·AI정책 대주제로 첫째, AI 안전과 실업 문제에 대한 국가적 대응 체계 구축, 둘째, 알고리즘 편향과 디지털 차별 방지, 셋째, 빅테크의 데이터 및 자원 남용 방지를 제안했다. 각각의 대주제에 대해서는 구체적인 세부과제를 제시하며 구체적인 방향을 제안했다.
대주제 |
세부주제 |
1. AI 안전과 실업 문제에 대한 국가적 대응 체계
|
1-1. AI 실업 문제에 대응하는 국가적 협의기구 설치 |
1-2. AI 거버넌스에 시민·노동자의 민주적 참여 보장 |
1-3. AI 위험과 침해에 대응하는 국가 규제 보장 |
1-4. 국가 감시 및 공권력 집행의 AI화 통제 |
1-5. AI 피해에 대한 구제 보장과 국제조약 가입 |
1-6. 공공 AI의 민주성 보장 |
2. 알고리즘 편향과 디지털 차별 방지 |
2-1. 알고리즘 차별을 방지하는 차별금지법 |
2-2. 디지털 공론장 및 디지털 성폭력에 대한 플랫폼 책무성 강화 |
2-3. AI 격차 해소 및 리터러시 보장 |
3. 빅테크의 데이터 및 자원 남용 방지
|
3-1. 빅테크 기업의 투명성 및 책무성 보장 |
3-2. AI 개발과 활용에서 개인정보 오남용 방지 |
3-3. 지속가능한 환경을 보장하는 AI 국가 |
4. 이날 기자회견 참석자들은 AI가 실제로 노동 안전, 일자리에 주는 위협과, 공론장 파괴, 기후위기, 환경파괴 및 딥페이크로 인한 성폭력, 차별 등의 문제를 야기하는 현실을 증언하며 차기 대통령은 AI 진흥만 얘기할 것이 아니라 인권과 민주주의 가치를 훼손하지 않도록 AI 위험 대책도 반드시 제시해야 한다고 주장했다. 끝.
▣ 붙임1 : 기자회견 개요
▣ 붙임2 : 21대 대통령선거 디지털·AI 정책 시민사회 제안서
—————————————————————————————————————————————-
▣ 붙임 1
□ 기자회견 개요
- 제목 : 21대 대통령선거 디지털·AI 정책 시민사회 제안 “AI 시대 민주주의와 인권을 말하는 대통령이 필요하다”
- 일시 및 장소 : 2025. 4. 30. (수) 오전 11시 / 참여연대 아름드리홀 2층
- 내용
- 사회 김희순 참여연대 권력감시1팀장
- 분야별 AI 관련 문제
1) 노동 안전, 일자리에 주는 위협 : 김은진 민변 디지털정보위원회, 노동위원회 위원
2) 공론장 파괴와 플랫폼 책임 : 김동찬 언론연대 정책위원장
3) 기후파괴 등 환경위협 : 이민호 서울환경연합 기후행동팀장
4) 딥페이크로 인한 성폭력, 차별 등 사회문제 심화 : 희우 진보네트워크센터 활동가
- 시민사회가 요구하는 차기 정부의 AI 정책 제안 주요 내용 : 장여경 정보인권연구소 상임이사
—————————————————————————————————————————————-
▣ 붙임 2
21대 대통령선거 디지털·AI 정책 시민사회 제안
“AI 시대 민주주의와 인권을 말하는
대통령이 필요하다”
알고리즘 편향, AI 안전·실업, 개인정보 오남용 문제 갈수록 심각
차기 정부는 시민 권리와 환경 희생 없는 디지털 민주주의 국가 지향해야
대통령선거를 앞두고 여러 후보들이 AI 시대를 예비하는 정책을 발표하고 있습니다. 대부분의 AI 정책들은 AI의 혜택을 부각시키며 AI 산업의 진흥에 주력하고 있습니다. 그러나 급속히 발전하는 AI가 우리 사회에 미칠 영향에는 혜택과 위험이 모두 있을 수밖에 없으며, 국가 정책은 이 두 가지 측면 모두에 대해 균형적이어야 합니다. 일반 시민과 노동자야말로 AI 시대의 핵심적인 이해관계자라는 사실을 엄중하게 인식해야 합니다.
국가가 AI 기업들의 이해관계만 살펴서는 우리 사회가 겪기 시작한 디지털 사회 문제에 제대로 대처할 수 없습니다. 공공분야를 비롯한 사회곳곳에서 알고리즘이 사람에 대해 평가하고 결정하는 시대에 접어들었습니다. 산업로봇과 배달로봇이 점점 더 삶과 노동 공간에 많이 등장하고 있습니다. AI로 인한 안전과 실업 문제는 이미 현실로 등장했습니다. AI 기술이 정교해지는 만큼 디지털 성폭력과 보이스피싱 등 사회적 약자의 피해도 커져 왔습니다. 다음 정부가 지향할 AI 국가는 디지털 기술이 우리의 삶과 노동에 미칠 영향을 진지하게 고려해야 합니다.
특히 디지털 및 AI 분야 민주주의는 향후 우리 사회 민주주의에서 중요한 과제가 되었습니다. 국가적인 디지털 및 AI 정책과 거버넌스는 산업계뿐 아니라 그 영향을 받게 될 당사자의 입장과 권리를 반드시 반영하여야 합니다. 시민과 노동자가 자신에게 영향을 미치는 AI 거버넌스에 참여하고 권리를 행사할 수 있어야 하는 것입니다. 알고리즘의 편향이나 개인정보 오남용 문제는 기업의 자율에만 맡겨둘 수 없습니다. AI 산업이 환경에 미치는 영향도 심각하게 고려해야 합니다.
불안정한 국제 정세와 갈수록 격화되는 경쟁 속에서 이는 쉽지 않은 과제일 것입니다. 그러나 새 정부는 반드시 AI 시대 민주주의 목표를 지향하며 올바른 방법을 찾아가야 합니다. 그것이 위기에 처한 우리 사회의 편향을 바로 잡고 민주주의가 회복되는 미래로 가는 길이기 때문입니다. 이에 30개 인권· 노동· 언론· 환경· 소비자 등 시민사회단체는 아래와 같이 정책을 제안합니다.
대주제 |
세부주제 |
1. AI 안전과 실업 문제에 대한 국가적 대응 체계
|
1-1. AI 실업 문제에 대응하는 국가적 협의기구 설치 |
1-2. AI 거버넌스에 시민·노동자의 민주적 참여 보장 |
1-3. AI 위험과 침해에 대응하는 국가 규제 보장 |
1-4. 국가 감시 및 공권력 집행의 AI화 통제 |
1-5. AI 피해에 대한 구제 보장과 국제조약 가입 |
1-6. 공공 AI의 민주성 보장 |
2. 알고리즘 편향과 디지털 차별 방지 |
2-1. 알고리즘 차별을 방지하는 차별금지법 |
2-2. 디지털 공론장 및 디지털 성폭력에 대한 플랫폼 책무성 강화 |
2-3. AI 격차 해소 및 리터러시 보장 |
3. 빅테크의 데이터 및 자원 남용 방지
|
3-1. 빅테크 기업의 투명성 및 책무성 보장 |
3-2. AI 개발과 활용에서 개인정보 오남용 방지 |
3-3. 지속가능한 환경을 보장하는 AI 국가 |
1. AI 안전과 실업 문제에 대한 국가적 대응 체계
1.1. AI 실업 문제에 대응하는 국가적 협의기구 설치
AI로 인한 일자리 영향에 대한 사회적 우려가 커지고 있으나, 우리의 현황은 파악조차 되고 있지 않으며 국가적 대책이 전무한 실정임. 미국에서는 브루킹스 연구소가 전체 근로자의 30% 이상이 챗GPT-4의 영향을 받을 것이며, 85%의 근로자는 최소 10%의 업무가 영향을 받을 것이라고 발표했음. 바이든 정부는 AI 행정명령을 통하여 △ AI가 노동시장에 미치는 효과, △ AI 도입으로 일자리를 잃은 노동자를 지원하는 방안, △ AI가 근로자 복리에 미칠 수 있는 해악을 완화하고 이점을 극대화하는 방안을 마련하기 위한 시책을 강구하였던 바 있음.
-> AI로 인한 일자리 문제에 대응하고 그 영향을 받는 노동자를 비롯한 관련 이해관계자가 참여하는 국가적 협의기구를 설치해야 함.
1.2. AI 거버넌스에 시민·노동자의 민주적 참여 보장
AI 거버넌스를 수립할 때는 AI를 개발하고 사업장에 도입하는 사업자의 입장뿐 아니라, 소비자, 환자, 학생, 사회복지수급권자 등 각계 시민과 노동자가 AI로 인해 영향을 받게 된다는 점에서 이들의 참여를 중요하게 고려해야 함. 영향받는 당사자가 AI의 개발과 배치에 대한 거버넌스에 참여하여 의견을 개진하고 반영되는 체계를 보장하여야 하고, 이를 통해 AI의 위험을 예방하고 사회적 수용성을 확보할 필요가 있음. 유엔 사무총장은 “국가는 권리 주체, 특히 가장 큰 영향을 받거나 부정적인 결과를 겪을 가능성이 높은 권리 주체가 개발 과정에 효과적으로 참여하고 기여할 수 있는 기회를 창출하고 특정한 신기술의 채택을 촉진해야 한다.”고 권장하며 “국가는 참여 보장과 포용적 의견수렴을 통해서, 경제적 효율성, 환경적 지속 가능성, 포용성 및 형평성을 갖춘 균형적이고 통합적인 지속 가능 개발 목표에 있어 어떤 기술이 가장 적절하고 효과적인지 결정할 수 있다.”고 지적한 바 있음.
-> 국가, 기관, 학교, 직장 등에서 AI의 개발 또는 배치를 결정할 때 그 영향받는 자의 민주적 참여 구조를 보장해야 함. 특히 국가적인 AI 거버넌스에는 영향받는 당사자 또는 이를 대표하는 시민사회단체가 참여하여 사전적인 의견을 개진할 수 있어야 함. 직장에 도입되는 AI에 대해서는 노동조합 등 노동자 대표와 사전적인 협의가 보장되어야 함.
1.3. AI 위험과 침해에 대응하는 국가 규제 보장
최근 과학기술정보통신부 반대로 방송통신위원회가 준비해 온 <AI 서비스 이용자 보호 가이드라인>에 제동이 걸림. AI 기본법(인공지능 발전과 신뢰 기반 조성 등에 관한 기본법, 2026. 1. 22. 시행예정) 및 이를 소관하는 과기부는 산업적 관점에서 국가 AI 정책을 주무하고 있음.
-> AI 위험과 침해에 대응하는 국가 규제 기능의 독립적 집행이 보장될수 있는지 모호한 실정임. AI 위험에 대응하는 국가 규제 기능이 산업적 이해관계에 모두 종속될 경우 AI 공정채용, AI 산업안전, AI 공정경쟁, AI 개인정보침해, AI 인권침해 등에 대처해야 하고 때로는 독립적으로 집행되어야 할 각 기관의 규제 기능이 위축될 우려가 있음. AI 위험과 침해에 효과적으로 대응하는 국가 규제 기능이 과기부처 및 산업진흥 기능으로부터 독립적으로 집행되도록 보장해야 함.
1.4. 국가 감시 및 공권력 집행의 AI화 통제
- 3 비상계엄 시기 계엄군이 지방자치단체 CCTV 통합관제센터에 무제한으로 접속하여 국회의장 공관등을 열람하였다는 사실이 드러남. 그 이후로도 지방자치단체 CCTV에 대한 군의 무제한적 접속 및 열람 권한은 시정되지 않았으며, 인물추적 등 CCTV 지능화가 계속 추진되고 있음. 군 뿐 아니라 국가정보원, 대통령경호실, 경찰기관 등 국가권력기관이 도입하는 AI는 집회시위의 권리 등 기본권 행사를 위축시킬 수 있음.
-> 군과 국가권력기관이 법률에 따른 최소한의 통제도 없이 국가 및 지방자치단체 CCTV를 무제한으로 접속 및 열람하는 것을 방지하고 생체인식 및 추적 기능을 탑재한 지능형 CCTV 및 통합관제센터를 설치 및 운영하는 것을 국가적으로 제한하여야 함. 특히 지능화한 CCTV와 AI 기술로 공공장소에서 실시간으로 개인을 생체인식 및 감시하는 것을 법률로 금지해야 함.
1.5. AI 피해에 대한 구제 보장과 국제조약 가입
AI로 인하여 피해를 받은 사람들을 구제할 수 있으려면, AI 작동의 원인과 결과가 피해자에게 공개되어야 하고 국가가 피해 구제를 위해 관여해야 함. AI 국제조약(Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law)에서는 AI 관련 정보를 영향을 받는 사람에게 공개하고 국가에 진정할 수 있도록 보장할 것을 각국 정부에 요구하고 있음. 그러나 AI 기본법에서는 AI로 인한 피해 구제 방법을 보장하고 있지 않음. AI 채용으로 불합격 통보를 받은 청년도, 사회보장 AI로부터 보조금 지급거부 결정을 받은 시민도, 학력평가 AI로부터 납득할 수 없는 점수를 받은 학생도, 의료 AI의 진단오류로 피해를 입은 환자도 이 법에 의해서는 충분한 설명이나 구제를 보장받을 수 없음.
-> 국가적으로 AI 피해를 구제할 수 있는 독립적인 기구와 절차를 마련하고 피해자를 지원해야 함. 또한 미국, 유럽, 일본 등 세계 15개국이 서명한 AI 국제조약에 가입하여 AI 구제를 위한 국제사회 노력에 동참해야 함.
1.6. 공공 AI의 민주성 보장
“챗GPT를 정부 업무에 활용하라”는 윤석열 대통령 지시 이후 많은 공공기관에서 AI를 무차별적으로 도입해 왔음. 특히 AI 디지털교과서의 경우 학생, 학부모, 교사를 비롯한 교육주체의 의견을 충분히 반영하지 않고 졸속으로 추진되어 왔음. 그러나 생성형AI, AI 디지털교과서를 비롯한 공공 AI들의 위험을 사전에 검토하거나 방지하는 조치가 제도적으로 보장되어 있지 않음. 또한 공공 AI가 어떤 식으로 얼마나 도입되어 있고 그 위험과 대책이 무엇인지 시민 앞에 투명하게 공개되어 있지 않음. 대부분의 공공 AI는 빅테크를 비롯한 기업들의 기술력에 의존하고 있을 뿐, 그 영향을 받는 시민의 권리를 보장하고 있지 않음.
-> 자동화된 행정처분이 이미 이루어지고 있는 현실에서 적법절차 등 기본권 행사를 보장하고 공공 AI의 민주성을 보장해야 함. 특히 민주적 절차를 결여한 채로 도입된 AI 디지털 교과서는 중단되어야 함. 모든 공공 AI는 국가에 등록되어 시민 앞에 투명하게 공개되고 시민 의견을 수렴해야 함. 공공 AI 조달에서 인권영향평가가 의무화돼야 하며, 인권영향평가 제도 마련 및 시행에 국가인권위원회가 참여해야 함. 공공 AI의 결정에 대하여 그 영향을 받은 시민에게 충분히 설명하고, 이의제기를 보장하는 등 책무성을 확보해야 함.
.
2. 알고리즘 편향과 디지털 차별 방지
2.1. 알고리즘 차별을 방지하는 차별금지법
계엄 이후 우리 사회에서 소수자·외국인 혐오, 성차별이 커지고 때로 폭력적인 행동으로 이어지는 모습이 충격적임. 세계적으로는 알고리즘의 편향성으로 인하여 대출 등 금융서비스, 채용, 사회복지, 경찰수사 등에서 벌어진 차별적 대우가 큰 논란을 빚어 왔음.
-> 무엇이 차별이고 이를 어떻게 방지해야 할지 명확히 하기 위해서는 국가적으로 포괄적인 차별금지법이 제정되어야 함. 특히 차별금지법은 알고리즘의 편향성으로 인한 직간접적인 차별을 포함하고 이를 방지할 수 있어야 함.
2.2. 디지털 공론장 및 디지털 성폭력에 대한 플랫폼 책무성 강화
허위조작정보나 혐오발언 등 자극적이고 극단적인 콘텐츠가 디지털 플랫폼을 통해 확산되어 왔으며, 이로 인한 정치사회적 양극화와 공론장 위축 문제가 심각해지고 있음. 한편, 최근 딥페이크 등 첨단기술을 빠르게 적용하는 디지털 성폭력 문제가 반복되는 가운데, 플랫폼이 디지털 성폭력물의 주요 유통경로가 되어 왔음. 종래 플랫폼에 대해서는 미디어중개자로서 표현의자유를 보장하는 역할이 강조되어 왔던 것이 사실임. 그러나 최근 플랫폼 알고리즘은 바람직한 중개자로서 역할보다 이용자를 플랫폼에 오래 잡아두는 방향으로 설계되는 경향이 강하며, 많은 사실이 영업비밀로 은폐되어 관리가 투명하지 않음. 심각해지는 허위조작정보·혐오나 디지털 성폭력 유통 문제에 대처하는 플랫폼의 투명성과 책무성이 강화될 필요가 있음.
-> 디지털 공론장 왜곡과 디지털 성폭력에 이용자가 적절하게 대처하고 정책적으로 대응하기 위하여, 플랫폼은 약관 등을 통하여 관련 정책을 투명하게 공개하여야 함. 플랫폼이 사전 영향평가와 완화 조치를 통해 디지털 공론장과 디지털 성폭력에 대응하는 정책을 마련할 것 또한 의무로 규정해야 함. 한편 플랫폼은 콘텐츠 신고 등 이용자의 요청에 대하여 책임성 있는 응답 조치를 보장해야 함.
2.3. AI 격차 해소 및 리터러시 보장
AI에 대한 접근성과 활용능력의 차이는 개인의 사회 참여와 사회 불평등을 심화시킬 우려가 존재함. OECD는 ‘디지털 시대의 권리’로서 디지털 접속과 격차 문제를 해소하는 국가 정책과 리터러시 보장을 회원국에 권고해 옴. 특히 OECD는 “실질적인 접근권을 보장하기 위해서는 디지털 기술 활용 능력, 디지털 리터러시 등 이해하고 활용하는 능력을 갖추어야 할 뿐 아니라, 소득, 고용, 교육과 같은 지표를 개선하는 것이 디지털 접근 격차에 직접적인 영향을 미칠 수 있다.”고 지적함. 유엔인권최고대표는 디지털 격차를 해결하기 위하여 좋은 거버넌스를 수립할 것을 각국에 권고하였음.
-> 취약계층 중심 지원 정책 뿐 아니라 시민 전반의 불평등을 해소하고 사회 각 분야 리터러시를 증진하기 위한 국가 거버넌스와 정책이 마련되어야 함. AI 격차 해소와 리터러시 증진을 위한 국가 거버넌스에는 영향을 받는 시민이 참여하여야 함.
3. 빅테크의 데이터 및 자원 남용 방지
3.1. 빅테크 기업의 투명성과 책무성 보장
구글, 메타, 네이버, 카카오 등 빅테크 플랫폼은 방대한 이용자 개인정보를 기반으로 다양한 온라인, 오프라인 서비스를 사실상 독점하고 있음. 빅테크는 알고리즘 조작으로 자사 상품을 우대(카카오택시, 네이버쇼핑 등)하고 공정한 경쟁을 훼손하였으며, 과도하게 높은 수수료(배달의 민족)나 이용료(유튜브)를 부과하여 소상공인 및 이용자로부터 폭리를 취하고 있음. 특히 해외 빅테크의 경우 수익에 상응하는 세금을 부담하지도 않고 있음.
-> 빅테크 플랫폼의 사회적 책무성을 강화하는 제도를 마련해야 함. 온라인플랫폼 독점규제법 등 입법 조치로 빅테크의 공정경쟁 훼손 및 독점력 남용을 제한하고, 해외 빅테크에 대하여 합당한 조세를 부과하며, 빅테크 플랫폼 알고리즘의 영향에 대한 사전 영향평가와 완화 조치를 취해야 하고, 알고리즘 투명성을 강화하는 조치가 이루어져야 함.
3.2. AI 개발과 활용에서 개인정보 오남용 방지
우리나라 시민은 AI가 유발할 수 있는 개인정보 위험의 심각성에 대해서 성인 76.1%, 청소년 76.2%가 ‘심각하다’고 응답했음. 그럼에도 윤석열 정부는 AI 산업을 위하여 개인정보 보호를 완화하는 정책을 추진해 옴. 국가개인정보감독기구인 개인정보보호위원회조차 공개된 개인정보 등에 대하여 규제를 완화하는 정책을 추진하며 정보주체 보호보다 AI 기업 지원에 치중해 옴. 나아가 지금보다 개인정보보호를 더 완화하기 위한 개인정보보호법 개정도 추진해 옴. 개인정보와 알고리즘을 이용하여 개인을 표적으로 삼는 온라인 광고에 대한 규제 정책 또한 산업계 이해관계에 편중되어 있음. 아동, 노인 등 취약한 정보주체를 표적으로 삼거나 민감정보를 남용하는 관행이 심각한 상태에 이름.
-> AI 개발과 활용 과정에서 개인정보 오남용을 방지하고 정보주체를 보호하기 위한 국가적 체계를 정비할 필요가 있음. 특히 윤석열 정부가 AI 산업을 위하여 취해온 규제완화 정책과 개인정보보호법 개정안을 재검토할 필요가 있음. 표적 광고를 위한 행태정보를 수집할 때는 정보주체에게 고지하고 동의를 구해야 함. 표적 광고를 비롯하여 개인정보를 활용하여 개인을 표적으로 삼는 알고리즘을 정보주체가 통제할 수 있도록 보장해야 함. 아동, 노인 등 취약한 정보주체를 특별히 보호하고 민감정보 오남용을 방지하기 위한 적극적 정책이 마련되어야 함.
3.3. 지속가능한 환경을 보장하는 AI 국가
데이터센터와 하드웨어를 비롯한 AI의 제조 및 운영으로 막대한 에너지와 물이 소비되고, 탄소 배출이 급증하고 있음. AI 애플리케이션이 더 많이 훈련되고 사용될수록 더 많은 온실가스가 배출됨.
-> AI 산업이 환경과 기후에 미치는 영향에 대한 정보를 공개하여야 함. AI 산업의 탄소 배출을 규제하여야 함. 특히 에너지 사용이 막대한 첨단 AI 모델 사업자에 대해서는 환경 의무를 법으로 규정하여야 함. 끝
2025년 4월 30일
건강권실현을위한보건의료단체연합, 광주인권지기 활짝, 대구인권운동연대, 무상의료운동본부, 문화연대, 미디어기독연대, 민주사회를위한변호사모임, 민주언론시민연합,블랙리스트 이후, 서울YMCA 시민중계실, 서울환경연합, 소비자시민모임, 언론개혁시민연대, 인권운동공간 활, 인권운동사랑방, 전국교직원노동조합, 전국민주노동조합총연맹, 전북평화와인권연대, 정보인권연구소, 제주평화인권연구소왓, 진보네트워크센터, 차별금지법제정연대, 참여연대, 참여자치지역운동연대(대구참여연대· 대전참여자치시민연대· 마창진참여자치시민연대· 부산참여연대· 성남참여자치시민연대·세종참여자치시민연대·여수시민협·울산시민연대· 익산참여연대·인천평화복지연대· 제주참여환경연대·참여연대·참여와 자치를 위한 춘천시민연대· 참여자치21(광주)·참여자치전북시민연대·충남참여자치지역운동연대·충북참여자치시민연대·투명사회를 위한 정보공개센터 전국 18개 단체), 천주교인권위원회, 투명사회를위한정보공개센터, 표현의자유와언론탄압공동대책위원회, 한국소비자연맹, 한국여성민우회, 환경운동연합 (이상 30개 단체, 가나다순)
PI20250430_보도자료_21대대선AI정책과제제안기자회견
Post Views: 85