○ 도, 6일 스페인에서 ‘제1회 지방정부협의체 장관 회담’ 참석해 AI 공동선언문 발표
- 9개 지방정부간 AI 비전 소개 및 책임 있는 발전 등 국제협력 방안 논의
- ‘신뢰할 수 있는 AI 선언문’ 공식 승인으로 글로벌 AI 윤리 선도
경기도가 6일 스페인 바르셀로나에서 열린 ‘제1회 지방정부협의체 장관 회담(DETA’s Ministerial Summit)’에 참석해 메사추세츠(미국), 옥시타니(프랑스) 등 세계 9개 지방정부와 함께 AI 공동선언문을 발표하고 AI 분야 국제협력과 윤리적 발전 방안을 논의했다.
이번 회담은 2024~2025년 지방정부협의체(DETA) 의장국인 카탈루냐주에서 주최했으며, 카탈루냐 마리아 갈린도 디지털정책부 차관의 환영사로 시작해 ▲각 정부 소개 발표 ▲DETA 연간 활동 보고 ▲‘신뢰할 수 있는 AI 선언문’ 발표 ▲라운드테이블 토론 순으로 진행됐다.
9개의 지방정부 대표단이 자국의 신기술 관련 정책과 우수사례를 소개하는 가운데, 도는 AI 산업 현황과 AI를 활용한 도민 삶의 질 향상, AI 산업 진흥 및 행정 서비스 개선을 위한 다양한 정책을 발표해 주목을 받았다.
이날 각 대표단은 윤리적인 AI 기술 개발을 위해 회원 정부 공동으로 작성한 ‘신뢰할 수 있는 AI 발전을 위한 선언문’을 발표하고 국제사회에 AI의 윤리에 대한 협력 의지를 공식화했다. 선언문은 인간 존엄성, 민주주의, 법치주의를 핵심 가치로 삼고 있으며, 윤리적 규범과 사회적 가치를 준수하는 AI 문화 조성을 목표로 한다.
라운드테이블 토론에서는 AI를 포함한 신흥 기술의 윤리적 사용과 함께 DETA 연합의 향후 협력 방안을 다뤘다. 도는 ‘인공지능 윤리 기반 조성에 관한 조례’를 비롯해 ‘신뢰할 수 있는 AI 발전’ 등 도에서 추진 중인 정책을 소개하고, 글로벌 AI 윤리 실현을 위한 국제적 협력 방안에 대해 의견을 나눴다.
한편, DETA(Disruptive and Emerging Technologies Alliance, 초혁신 신기술 동맹)는 혁신 기술 분야 영향력 확보 및 교류를 위한 협력을 목적으로 출범한 글로벌 협의체로 17개국 지방정부가 회원국으로 있으며 경기도는 올해 1월에 가입, AI 분과(14개 회원국)에 참여하고 있다.
김기병 경기도 AI국장은 “이번 회담을 통해 경기도가 AI 분야에서 국제사회와의 협력을 선도하는 발판을 마련하게 됐다”며 “AI 발전을 위해 세계 각국 정부와의 협력 활동을 지속하고, AI 기술적 발전뿐만 아니라 윤리적이고 책임 있는 활용을 위한 글로벌 네트워크를 강화하겠다”고 말했다.
붙임 1
|
| 신뢰할 수 있는 AI 발전을 위한 선언문(국문)
|
신뢰할 수 있는 AI 발전을 위한 선언문
수정본 2024년 8월 28일
(경기도 의견 전부 반영)
Diagnosis of the issue 문제 진단
일상생활에서 신뢰할 수 있는 인공지능(AI)을 성공적으로 활용하기 위해서는 문제점, 기회, 거버넌스 문제들 간의 복잡한 상호작용을 고려해야 하며, 이들 각각은 AI 기술이 사회에 미치는 영향과 앞으로 나아갈 방향을 좌우합니다. 이를 위해서는 AI 혁신을 촉진시키는 동시에, 그 혁신이 윤리적 규범과 사회적 가치를 준수하는 AI문화를 만드는 효과적인 거버넌스와 규제 및 운영방식에 대한 이해가 매우 중요합니다. 신뢰할 수 있는 AI의 발전을 위한 윤리적 개발 및 활용을 장려하는 체계적인 환경 아래에서 AI 혁신이 발전할 수 있지만, 이를 위해서는 정부, 산업 리더, 학술 기관, 시민 사회가 AI가 어떻게 성과를 이루어내는지와 그 이유를 이해하는 동시에, 국가별 규제 및 기술 수준의 차이, 지역별 디지털 격차 등을 고려하여 ‘신뢰할 수 있는 AI 발전’에 대한 약속에 동참해야 합니다.
Our vision 우리의 비전
신뢰할 수 있는 AI를 우리 사회체계 속으로 받아들이기 위해서는 인격, 데이터, 정의 등 모든 부문에 대한 사고방식을 이성적인 사고에서 관계 중심적인 사고로 근본적으로 전환해야 하며, 이 과정에서 윤리는 단순한 기술적 해결방안 이상의 의미를 가져야 합니다. 이를 위해서는 AI 기술을 개발하고 활용할 때 효율성과 운영상의 이점만을 추구할 것이 아니라, 투명성, 정의, 안전, 책임, 프라이버시, 자율성, 자기 결정권, 지속가능성 및 문화적 다양성을 향상시키는 데에도 초점을 맞춰야 할 것입니다. 이는 AI가 인간과 사회에 미치는 영향을 우선시하는 관계적 접근방식을 받아들이고, 개인-공동체-기술의 상호 연관성을 인식하며 인간의 존엄성, 민주주의, 법치주의라는 세 가지 핵심 가치를 따르는 것을 의미합니다.
Core values 핵심 가치
인간의 존엄성: AI 시스템은 인간의 존엄성을 존중하고 향상시켜야 하며, 이를 통해 개개인이 존중받고 그들의 기본적 권리가 보장되도록 해야 합니다. 따라서 우리는 사람들에게 권한을 부여하고 삶의 질을 향상시키는 AI를 개발하는 데 앞장서야 해야 합니다. (즉, 인간 중심의 AI)
민주주의: AI는 민주적 과정과 제도를 지원해야 하고, 투명성을 강화하고 다양한 이해관계자들의 참여를 활성화함으로써 공공의 이익을 위한 책임 있는 AI 기술을 발전시켜야 하며, 이를 통해 AI는 특정한 환경에서 요구되는 사회적 가치와 부합해야 합니다.
법치주의: AI의 개발과 활용은 법치주의 원칙에 따라 이루어지고 관리되어야 하며, 모든 행위는 법률을 준수함으로써 AI 분야 전반에서 정의와 책임을 보장해야 합니다.
Key commitments 주요 약속
윤리적 개발: 우리는 AI 기술의 윤리적 개발에 힘써야 하며, AI 수명 주기의 모든 단계에서 윤리적 측면을 고려해야 합니다. 이는 편견 해소, 공정성 보장, 영향을 받는 모든 개개인의 복지를 우선시하는 것을 포함합니다.
투명한 거버넌스: 우리는 AI에 대한 명확하고 투명한 거버넌스를 수립하여 AI와 관련된 정책과 규제가 공개적으로 논의되고 대중의 감시를 받도록 해야 합니다. 이러한 투명성은 신뢰와 정당성을 확보하는 데 필수적입니다.
포용적 혁신: 우리는 AI 혁신 과정에 다양하게 참여할 수 있는 기회를 제공하고 필요한 자원을 제공하는 데 힘써야 합니다. 여기에는 교육 및 훈련 프로그램을 지원하고, AI 연구 개발에서 다양성을 증진하며, 모든 의견이 반영되도록 보장하는 것을 포함합니다.
책임과 의무: 우리는 AI 시스템을 모니터링하고 평가하기 위한 강력한 책임 체계를 구축함으로써 AI 시스템이 의도한 대로 작동되고 해를 끼치지 않도록 해야 합니다. AI 결과에 대한 책임 소재를 명확히 규정하고 이를 철저히 실행해야 합니다.
지속 가능한 개발: 우리는 AI가 환경에 미치는 영향은 최소화하되, 기후변화와 사회적 불평등과 같은 전 지구적 과제를 해결하도록 하는 지속가능한 AI개발에 전념해야 합니다.
Recommendations 권고사항
앞서 언급한 핵심 가치와 주요 약속에 따라 AI가 개발 및 관리되는 환경을 조성함으로써, 우리는 사회 정의를 지지하고 지속 가능한 발전을 위한 2030 어젠다의 더 큰 목표에 기여하는 "더 나은" AI의 비전을 실현하는 데 한 걸음 더 다가갈 수 있습니다. 이를 위해 우리는 다음 5가지 권고사항을 제안합니다:
1) AI가 활용되는 다양한 상황을 고려하는 AI 윤리체계를 개발하고 지속적으로 업데이트합니다. 이러한 체계는 변화하는 사회적 규범, 기술의 발전, 규제의 변화를 받아들일 수 있도록 유동적이어야 합니다. 또한 소외계층과 취약계층을 포함한 폭넓은 이해관계자들의 참여를 통해 형성됨으로써, 다양한 사회적 요구 및 가치를 포용하고 대변할 수 있어야 합니다.
2) AI 개발 및 배포와 관련된 의사결정 과정에 광범위한 이해관계자를 적극적으로 참여시키는 참여형 거버넌스 모델을 구현합니다. 여기에는 정책 입안자, 기술자, 시민 사회 단체, 그리고 특히 소외된 집단을 포함한 AI 기술의 최종 사용자들이 포함되어야 합니다. 이러한 참여는 AI 시스템이 투명하고 책임감 있게 개발 및 운영되고 공공의 이익에 부합하도록 만들어, 사회 전반에 걸쳐 AI에 대한 신뢰와 수용도를 높이는 데 기여할 것입니다.
3) AI의 사회기술적 복잡성을 탐구하기 위해 기술자, 사회과학자, 윤리학자 및 기타 이해관계자들 간의 학제간 협력을 장려하고 지원합니다. 이 과정에서 정성적·정량적 연구방법을 통합하여 AI가 사회에 미치는 영향을 총체적으로 이해하는 것을 목표로 해야 합니다. 학제간 협력은 기술적으로 진보했을 뿐만이 아니라 윤리적으로 건전하고, 문화적으로 민감하며, 사회적으로도 유익한 AI 기술의 발전을 촉진할 수 있으며, 이는 궁극적으로 지속가능한 개발 목표 달성에 기여할 수 있습니다.
4) AI 시스템의 설계부터 배포 이후까지 수명 주기 전반에 걸친 포괄적인 윤리 및 영향 평가를 실시합니다. 이러한 평가는 AI 기술의 잠재적인 사회·경제·문화적 영향을 측정해야 하며, 특히 편견, 차별, 불평등과 관련된 문제점을 발견하고 완화하는 데 중점을 두어야 합니다. 이러한 평가를 AI 개발 과정에 필수적으로 포함시킴으로써 윤리적 문제를 선제적으로 해결할 수 있으며, AI 시스템이 사회에 긍정적인 영향을 미치고 취약 계층에게 의도치 않은 해를 끼치지 않도록 보장할 수 있습니다.
5) 정책 입안자, 개발자, 일반 대중을 포함한 사회의 모든 계층을 대상으로 AI 활용능력(리터러시)를 향상시키기 위한 교육 프로그램과 공공 인식 캠페인을 전개합니다. 이러한 활동(이니셔티브)는 AI의 윤리적 차원, AI 기술의 잠재적 이점과 위험성, 그리고 AI 의사결정 과정에서의 개인의 권리를 다루어야 합니다. AI에 대한 충분한 정보를 바탕으로 한 사회적 논의를 활성화함으로써, 이러한 활동들을 통하여 개인이 AI 윤리에 관한 의미 있는 논의에 참여하고, AI의 힘을 신중하고 책임있게 활용할 수 있고, AI 윤리에 관한 의미 있는 논의에 참여하고, 자신들의 권리를 주장할 수 있으며, 민주적 가치와 사회 정의 원칙에 따라 AI 기술의 발전 및 거버넌스 형성 과정에 적극적으로 참여할 수 있게 됩니다.
Call to Action 행동 촉구
신뢰할 수 있는 AI에 대한 비전이 현실이 되기 위해서는 정부, 산업 리더, 학술 기관, 시민 사회와 같은 다양한 이해관계자들이 앞서 언급한 ‘핵심 가치’를 받아들이고, ‘주요 약속’을 실현하며, 주요 ‘권고사항’을 준수해야 합니다. 또한 이러한 비전은 지역 특정 과제를 해결하고, 지역 산업을 강화하며, 모든 주민의 삶의 질을 향상시키기 위해 AI를 활용하는 것으로 확대됩니다. 이를 통해 AI 기술의 개발, 활용 및 거버넌스가 우리 사회에 도움을 주는 동시에, 잠재적인 위험은 줄이고 윤리적, 사회적, 환경적 문제를 해결할 것입니다. 우리가 함께한다면, 미래의 AI 기술은 단지 혁신적일 뿐만이 아니라 우리를 인류로 정의하는 가치관과도 부합할 것입니다. 그러므로, AI가 공공의 이익을 위해 봉사하고, 인간의 존엄성을 높이며, 민주주의 원칙을 지지하고, 법치주의를 지킬 수 있도록 다함께 노력합시다.
Signatories 서명인
우리 서명인은 신뢰할 수 있는 AI 발전에 전념합니다
붙임 2
|
| 신뢰할 수 있는 AI 발전을 위한 선언문(영문)
|
A manifesto for advancing trustworthy AI
Draft 28/08/2024
Diagnosis of the challenges and opportunities
The successful integration of trustworthy Artificial Intelligence (AI) in everyday life requires taking into account a complex interplay of challenges, opportunities, and governance considerations, each influencing the trajectory and impact of AI technologies on society. For this to happen, effective governance, regulation, and knowledge of its mechanisms are crucial to foster AI innovation while ensuring an AI culture that it conforms to ethical norms and societal values. Although AI innovation can thrive in a well-regulated environment that encourages ethical development and deployment for advancing trustworthy AI, this requires governments, industry leaders, academic institutions, and civil society to be aware about how AI achieves outcomes and why, while considering differences in each nation’s regulations, technological capabilities, and regional digital divides.
Our vision
The integration of trustworthy AI into our societal frameworks necessitates a fundamental shift from rational to relational thinking about personhood, data, justice, and everything in between, placing ethics as something that transcends mere technical solutions. To achieve this, AI technologies need to be developed and deployed not just for efficiency and operational gains but also for promoting transparency, justice, safety, responsibility, privacy, autonomy, self-determination, sustainability and cultural diversity. This means embracing a relational approach that prioritizes the human and societal impact of AI, thus recognizing the interconnectedness of individuals, communities, and technologies while aligning with three core values: human dignity, democracy, and the rule of law.
Core values
Human dignity: AI systems must respect and enhance human dignity, ensuring that individuals are treated with respect and their fundamental rights are upheld. Therefore, we must advance to develop AI that empowers people and improves their quality of life (i.e. human-centered AI).
Democracy: AI must support democratic processes and institutions, promoting transparency and a participatory approach involving many relevant stakeholders that further advance responsible AI technology for the general public interest, thus adapted to context-specific social value requirements.
Rule of law: AI development and deployment must be governed by and adhere to the rule of law, ensuring that all activities are conducted in accordance with the law to ensure justice and accountability in all AI-related endeavors.
Key commitments
Ethical development: We must commit to the ethical development of AI technologies, integrating ethical considerations into every stage of the AI lifecycle. This includes addressing biases, ensuring fairness, and prioritizing the well-being of all affected individuals.
Transparent governance: We must commit to clear and transparent governance frameworks for AI, ensuring that policies and regulations with respect to AI are openly communicated and subject to public scrutiny. This transparency is essential for building trust and legitimacy.
Inclusive innovation: We must commit to create opportunities and resources for diverse participation in AI innovation. This includes supporting education and training initiatives, promoting diversity in AI research and development, and ensuring that all voices are heard.
Accountability and responsibility: We must commit to implement robust accountability mechanisms to monitor and evaluate AI systems, ensuring that they operate as intended and do not cause harm. Responsibility for AI outcomes needs to be clearly defined and enforced. Sustainable development: We must commit to sustainability in AI development and use in order to minimise the environmental impact of AI while promoting their use in addressing global challenges such as climate change and social inequality.
Recommendations
By fostering an environment where AI is developed and governed in line with the abovementioned core values and key commitments, we can move closer to realizing the vision of "better" AI that supports social justice and contributes to the broader goals of the 2030 Agenda for Sustainable Development. For this purpose, we propose the following 5 recommendations:
1) To develop and continuously update ethical frameworks for AI that are sensitive to the diverse societal contexts in which AI operates. These frameworks should be dynamic to accommodate evolving societal norms, technological advancements, and regulatory changes. They should also be informed by broad stakeholder engagement, including input from marginalized and vulnerable communities, to ensure that the frameworks are inclusive and representative of diverse societal needs and values.
2) To implement participatory governance models that actively involve a wide range of stakeholders in the decision-making processes related to AI development and deployment. This should include policymakers, technologists, civil society organizations, and, crucially, the end-users of AI technologies, especially those from underrepresented groups. Such engagement will help ensure that AI systems are developed and governed in a manner that is transparent, accountable, and aligned with the public interest, thereby enhancing trust and acceptance among all societal sectors.
3) To encourage and support interdisciplinary collaboration between technologists, social scientists, ethicists, and other relevant stakeholders to explore the socio-technical complexities of AI. This approach should aim to integrate qualitative and quantitative research methods to gain a holistic understanding of the impacts of AI on society. Interdisciplinary collaboration can foster the development of AI technologies that are not only technically advanced but also ethically sound, culturally sensitive, and socially beneficial, ultimately contributing to the achievement of sustainable development goals.
4) To implement comprehensive ethical and impact assessments throughout the lifecycle of AI systems, from design to deployment and beyond. These assessments should evaluate the potential social, economic, and cultural impacts of AI technologies, with a particular focus on identifying and mitigating risks related to bias, discrimination, and inequality. By making these assessments an integral part of the AI development process, organizations can proactively address ethical concerns and ensure that AI systems contribute positively to society and do not inadvertently harm vulnerable populations.
5) To develop educational programs and public awareness campaignsto enhance AI literacy among all segments of society, including policymakers, developers, and the general public. These initiatives should cover the ethical dimensions of AI, the potential benefits and risks of AI technologies, and the rights of individuals in the context of AI decision-making. By fostering a well-informed public discourse on AI, these efforts can empower individuals to be able to harness the power of AI in a well-considered and responsible manner, to engage in meaningful discussions about AI ethics, to advocate for their rights, and to participate actively in shaping the development and governance of AI technologies in a way that aligns with democratic values and social justice principles.
Call to Action
For this vision of trustworthy AI to become a reality, the abovementioned core values need to be embraced, the key commitments realised and the key recommendations respected by various stakeholders such as governments, industry leaders, academic institutions, and civil society. Moreover, this vision extends to utilizing AI to address region-specific challenges, strengthen local industries, and improve the quality of life for all residents. This will ensure that the development, deployment, and governance of AI technologies benefit society while mitigating potential harms and addressing ethical, social, and environmental concerns. Together, we can create a future where AI technologies are not only transformative but also aligned with the values that define us as humanity. Thus, let us work together to ensure that AI serves the common good, enhances human dignity, supports democratic principles, and upholds the rule of law.
Signatories
We, the undersigned, commit to advancing trustworthy AI as outlined above: