• 흐림동두천 25.4℃
  • 흐림강릉 27.3℃
  • 흐림서울 27.2℃
  • 대전 24.8℃
  • 대구 26.7℃
  • 흐림울산 29.3℃
  • 광주 26.3℃
  • 흐림부산 29.7℃
  • 흐림고창 26.9℃
  • 제주 27.1℃
  • 흐림강화 26.4℃
  • 흐림보은 25.3℃
  • 흐림금산 25.2℃
  • 흐림강진군 25.7℃
  • 흐림경주시 27.9℃
  • 흐림거제 29.0℃
기상청 제공

[브레츨리 선언문 전문] 세계 첫 'AI 정상회의'...세계 28개국 첫 공동선언

“AI 위험 막기 위해 지구적 협력 필요”
'에니그마' 해독했던 역사적 장소서 1~2일 열려

 

인공지능(AI)을 단일 의제로 하는 첫 정상회의가 1일(현지시간) 영국 런던에서 열렸다.

 

이날 영국 블레츨리파크에서 열린 AI 안정성 정상회의에 참석한 미국, 중국, 영국, 한국, 일본 등 28개국과 EU, 그리고 AI 개발 경쟁을 선도하는 테크기업 임원들과 전문가들은 통제되지 않은 급속한 AI 발전은 지구에 실존적 위협을 가한다며 각국이 대응 정책을 세우고 서로 협력해야 한다는 데 뜻을 모았다.

 

제2차 세계대전 당시 독일군의 암호 ‘에니그마’를 해독해냈던 영국 버킹엄셔주의 브레츨리 파크에서 열린 이번 회의 참가한 18개국은 인간 중심, 신뢰성 있고 책임 있는 AI를 보장하기 위해 국제협력을 강화해나갈 것을 다짐한 ‘블레츨리 선언’을 발표했다.

 

특히 블레츨리 선언은 ‘프런티어(frontier) AI’로 불리는 미래의 고성능 AI에도 주목했다. 아직은 가상의 개념에 불과하지만 프런티어 AI가 실제로 탄생하면 AI가 스스로 생각하고 추론하면서 인간의 통제를 벗어날 수 있다. 고도로 지능화된 AI가 전쟁의 판도를 마음대로 바꾸거나 테러를 일으키는 시나리오도 가능하다. 선언문은 “특히 프런티어 AI와 관련된 특정 위험에 대한 우려가 있는 경우 기존 국제 포럼 및 기타 관련 이니셔티브를 통해 해당 협력을 강화하고 확장하여 식별하고 이해하며 필요한 경우 조치를 취할 것”이라고 강조했다.

 

또한 AI를 악용한 “콘텐츠 조작 또는 속임수 생성 능력에서 비롯된 예상치 못한 위험의 가능성을 인식한다”며 “이러한 모든 문제는 중대한 중요성을 갖고 있으며 이에 대한 해결이 시급하다”고 밝혔다. 이어 “AI에서 발생하는 많은 위험은 본질적으로 국제적 성격을 갖고 있으므로 국제 협력을 통해 가장 잘 해결될 수 있다”며 “우리는 인간 중심, 신뢰성 있고 책임 있는 AI를 보장하기 위해 기존의 국제 포럼 및 기타 관련 이니셔티브를 통한 국제적 협력에서 함께 노력할 것을 다짐”했다.

 

2일까지 이어진 회의에는 카멀라 해리스 미국 부통령, 우르줄라 폰데어라이엔 EU 집행위원장, 안토니우 구테흐스 유엔 사무총장 등 세계 각국 정상급 인사들이 참석했다. 또한 일론 머스크 테슬라 최고경영자(CEO), 챗GPT를 개발한 오픈AI의 샘 올트먼 CEO, 알파벳의 AI 조직인 구글 딥마인드의 데미스 허사비스 CEO 등 AI 기업 대표들도 초청됐다. 윤석열 대통령은 2일 화상으로 회의에 참석했다. 리시 수낙 영국 총리와 머스크 CEO가 AI와 관련해 나눈 대담은 X(옛 트위터)를 통해 생중계됐다.

 

이번 행사는 리시 수낙 영국 총리 주도로 마련됐다. 수낙 총리는 “세계 최고의 AI 강국들이 AI의 위험성을 이해하는 것이 시급하다는 점에 모두 동의한 것”이라며 “우리 자녀와 손자들의 장기적인 미래를 보장하는 데 도움이 되는 획기적인 성과”라고 밝혔다.

 

해리스 미 부통령은 이날 런던 미 대사관에서 열린 별도 행사에서 AI의 안전을 논의하면서 편견, 차별, 허위 정보 유포 등 ‘전방위적인 위협’을 감안해 폭넓은 정의를 내려야 한다고 촉구했다. 그는 결함이 있는 AI 알고리즘으로 인해 의료 서비스를 거부당한 노인이나 노골적인 딥페이크 사진으로 협박을 당하는 여성을 실질적인 사례로 제시했다. 또한 해리스 부통령은 “전 세계 사람들이 AI가 만들어낸 허위 정보의 홍수로 사실과 허구를 분별할 수 없게 된다면 과연 AI가 민주주의를 위해 존재한다고 할 수 있겠느냐”고 했다. 앞서 미국 정부는 지난달 30일 조 바이든 대통령이 서명한 행정명령을 통해 기업의 AI 서비스 개발부터 출시에 이르기까지 전 과정에 직접 개입해 알고리즘 편향성과 허위 정보 생성 같은 문제를 막겠다고 밝힌 바 있다. 지나 러몬도 미 상무부 장관은 “미 국립표준기술연구소 산하에 AI 안전 연구소를 설치하고 영국이 설립하기로 한 (AI 규제) 기관과 협력 관계를 맺겠다”고 했다.

 

전문가들은 AI가 다른 첨단 기술에 비해 더 위협적인 이유로 컴퓨터만 있으면 누구나 쉽게 악용할 수 있다는 점을 지적한다. 인터넷에는 무료로 사용할 수 있는 개방형 AI가 수백 개 올려져 있고, 이 AI의 성능은 챗GPT와 비슷한 수준까지 발전했다. 누구나 간단한 조작으로 딥페이크를 만들 수 있게 된 것이다.

 

중국 대표로 정상회의에 참석한 우자후이 과학기술부 부부장은 “중국은 국제 거버넌스 프레임워크 구축을 돕기 위해 AI 안전에 대한 협력을 강화할 준비가 되어 있다”고 했다.

 

다음은 브레츨리 선언문 전문.

 

The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023

Published 1 November 2023

 

Artificial Intelligence (AI) presents enormous global opportunities: it has the potential to transform and enhance human wellbeing, peace and prosperity. To realise this, we affirm that, for the good of all, AI should be designed, developed, deployed, and used, in a manner that is safe, in such a way as to be human-centric, trustworthy and responsible. We welcome the international community’s efforts so far to cooperate on AI to promote inclusive economic growth, sustainable development and innovation, to protect human rights and fundamental freedoms, and to foster public trust and confidence in AI systems to fully realise their potential.

 

AI systems are already deployed across many domains of daily life including housing, employment, transport, education, health, accessibility, and justice, and their use is likely to increase. We recognise that this is therefore a unique moment to act and affirm the need for the safe development of AI and for the transformative opportunities of AI to be used for good and for all, in an inclusive manner in our countries and globally. This includes for public services such as health and education, food security, in science, clean energy, biodiversity, and climate, to realise the enjoyment of human rights, and to strengthen efforts towards the achievement of the United Nations Sustainable Development Goals.

 

Alongside these opportunities, AI also poses significant risks, including in those domains of daily life. To that end, we welcome relevant international efforts to examine and address the potential impact of AI systems in existing fora and other relevant initiatives, and the recognition that the protection of human rights, transparency and explainability, fairness, accountability, regulation, safety, appropriate human oversight, ethics, bias mitigation, privacy and data protection needs to be addressed. We also note the potential for unforeseen risks stemming from the capability to manipulate content or generate deceptive content. All of these issues are critically important and we affirm the necessity and urgency of addressing them.

 

Particular safety risks arise at the ‘frontier’ of AI, understood as being those highly capable general-purpose AI models, including foundation models, that could perform a wide variety of tasks - as well as relevant specific narrow AI that could exhibit capabilities that cause harm - which match or exceed the capabilities present in today’s most advanced models. Substantial risks may arise from potential intentional misuse or unintended issues of control relating to alignment with human intent. These issues are in part because those capabilities are not fully understood and are therefore hard to predict. We are especially concerned by such risks in domains such as cybersecurity and biotechnology, as well as where frontier AI systems may amplify risks such as disinformation. There is potential for serious, even catastrophic, harm, either deliberate or unintentional, stemming from the most significant capabilities of these AI models. Given the rapid and uncertain rate of change of AI, and in the context of the acceleration of investment in technology, we affirm that deepening our understanding of these potential risks and of actions to address them is especially urgent.

 

Many risks arising from AI are inherently international in nature, and so are best addressed through international cooperation. We resolve to work together in an inclusive manner to ensure human-centric, trustworthy and responsible AI that is safe, and supports the good of all through existing international fora and other relevant initiatives, to promote cooperation to address the broad range of risks posed by AI. In doing so, we recognise that countries should consider the importance of a pro-innovation and proportionate governance and regulatory approach that maximises the benefits and takes into account the risks associated with AI. This could include making, where appropriate, classifications and categorisations of risk based on national circumstances and applicable legal frameworks. We also note the relevance of cooperation, where appropriate, on approaches such as common principles and codes of conduct. With regard to the specific risks most likely found in relation to frontier AI, we resolve to intensify and sustain our cooperation, and broaden it with further countries, to identify, understand and as appropriate act, through existing international fora and other relevant initiatives, including future international AI Safety Summits.

 

All actors have a role to play in ensuring the safety of AI: nations, international fora and other initiatives, companies, civil society and academia will need to work together. Noting the importance of inclusive AI and bridging the digital divide, we reaffirm that international collaboration should endeavour to engage and involve a broad range of partners as appropriate, and welcome development-orientated approaches and policies that could help developing countries strengthen AI capacity building and leverage the enabling role of AI to support sustainable growth and address the development gap.

 

We affirm that, whilst safety must be considered across the AI lifecycle, actors developing frontier AI capabilities, in particular those AI systems which are unusually powerful and potentially harmful, have a particularly strong responsibility for ensuring the safety of these AI systems, including through systems for safety testing, through evaluations, and by other appropriate measures. We encourage all relevant actors to provide context-appropriate transparency and accountability on their plans to measure, monitor and mitigate potentially harmful capabilities and the associated effects that may emerge, in particular to prevent misuse and issues of control, and the amplification of other risks.

 

In the context of our cooperation, and to inform action at the national and international levels, our agenda for addressing frontier AI risk will focus on:

 

identifying AI safety risks of shared concern, building a shared scientific and evidence-based understanding of these risks, and sustaining that understanding as capabilities continue to increase, in the context of a wider global approach to understanding the impact of AI in our societies.

building respective risk-based policies across our countries to ensure safety in light of such risks, collaborating as appropriate while recognising our approaches may differ based on national circumstances and applicable legal frameworks. This includes, alongside increased transparency by private actors developing frontier AI capabilities, appropriate evaluation metrics, tools for safety testing, and developing relevant public sector capability and scientific research.

In furtherance of this agenda, we resolve to support an internationally inclusive network of scientific research on frontier AI safety that encompasses and complements existing and new multilateral, plurilateral and bilateral collaboration, including through existing international fora and other relevant initiatives, to facilitate the provision of the best science available for policy making and the public good.

 

In recognition of the transformative positive potential of AI, and as part of ensuring wider international cooperation on AI, we resolve to sustain an inclusive global dialogue that engages existing international fora and other relevant initiatives and contributes in an open manner to broader international discussions, and to continue research on frontier AI safety to ensure that the benefits of the technology can be harnessed responsibly for good and for all. We look forward to meeting again in 2024.

 

Agreement

The countries represented were:

 

Australia

Brazil

Canada

Chile

China

European Union

France

Germany

India

Indonesia

Ireland

Israel

Italy

Japan

Kenya

Kingdom of Saudi Arabia

Netherlands

Nigeria

The Philippines

Republic of Korea

Rwanda

Singapore

Spain

Switzerland

Türkiye

Ukraine

United Arab Emirates

United Kingdom of Great Britain and Northern Ireland

United States of America

References to ‘governments’ and ‘countries’ include international organisations acting in accordance with their legislative or executive competences.

 

양연희 기자 takahee@hanmail.net