양자컴퓨터와 양자우월성 단신

최근 양자컴퓨터와 양자우월성에 관한 흥미로운 두 논문이 아카이브에 올라왔다. 이전 글들 [글 1글 2글 3, 글 4, 글 5]보다 훨씬 간단하게 정리해봄. 앞선 글에서 찾을 수 있겠지만, 양자우월성 실험은 고전컴퓨터로 수행하기 어렵거나 굉장히 오랜 시간이 걸리는 일을 양자컴퓨터를 통해 빠르게 수행하는 실험을 말한다. 그러한 일을 찾는것도 꽤나 중요한 문제이고, 현재 실험에서는 랜덤회로샘플링 [관련 지난 글]이나 보손샘플링 [관련 지난 글]을 쓴다.

  • 우선 오늘 올라온 논문에 따르면 중국의 여러 팀이 모여 구글의 이전 양자우월성 실험에 쓰였던 Sycamore를 뛰어넘는, 최대 66큐비트까지 다룰 수 있는 새로운 양자컴퓨터 Zuchongzhi를 만들었다고. 이름은 중국의 수학자 조충지에서 따온듯. 이 새로운 컴퓨터를 통해 구글이 진행했던 랜덤회로샘플링을 56큐비트, 20뎁스에 대해 1.9 × 107개의 수를 샘플링했고, 이를 통해 0.0662%의 XEB Fidelity를 얻었다고. 비교대상이였던 과거 구글의 실험은 53큐비트, 20뎁스에 대해 3 × 106개의 수를 샘플링했고, 0.224%의 Fidelity를 얻었다. (지난 글에도 말했지만, 정확한 양자컴퓨터는 100%에 가까운 Fidelity를 얻어야한다! 그만큼 에러가 넘친다는 말.)

    고전 시뮬레이션을 통해 비슷한 결과를 얻으려면 27648개의 GPU를 가진 슈퍼컴퓨터 Summit을 이용했을때 Sycamore의 실험은 15.9일, 자신들의 실험은 8.24년이 걸릴것이라고, 지난글에서 다뤘던 Pan과 Zhang의 결과는 일종의 치팅이여서 샘플된 수가 xxx0000처럼 생겨 굉장히 편향되어있고, 확인하기 쉽기때문에 직접 비교의 대상으로는 삼지 않았다고 한다.

    개인적인 느낌으로는 당연히 훌륭한 결과지만, Sycamore가 첫 발자국을 찍은 이후로 나온 자연스러운 다음 걸음으로 보임 ㅋ 보손샘플링도 그렇고 양자컴퓨터의 구현측에서 중국이 선두로 나서고 있다는 의미가 큰듯.


  • 지난주 올라온 논문은 조금 다르게 양자 문제를 고전 컴퓨터로 푸는것에 대해 다룬다. 특히 여러 입자에 대한 정보가 주어졌을 때 이후 상태를 예측하는 다체 문제(Many-body problem) 등의 문제는 한꺼번에 많은 정보를 다뤄야하기때문에 고전적인 컴퓨터를 사용해서는 푸는것이 어렵다고 알려져 있다. 그런데, 이전 여러 논문 [관련 논문]에서 (고전적) 기계학습의 모델을 잘 설계하고 양자 실험결과를 데이터로 주면 휴리스틱하게 다체 문제를 잘 푼다는 것이 알려졌다고 한다.

    이 논문에서는 이러한 다체 문제에 관련된 태스크와 다른 몇몇 태스크가 기계학습을 이용해 잘 풀수 있다는 걸 증명했다고 한다. 즉, 고전적 기계학습이 다체문제를 풀 수 있다는걸 증명했다고 한다. 저자들이 사용한 방식은 특정 양자상태를 고전적으로 기록하는, 최근 발전된 classical shadow라는 툴을 사용했다고. 얘는 물리도 머신러닝도 잘 몰라서 더 자세히 읽기 어렵다..

    쓰고보니 얘는 양자컴퓨터와도 양자우월성과도 직접적인 관계는 없구만 -_- 그치만 다체문제의 경우 양자컴퓨터가 잘 풀수 있는 구체적인 예시로 제시되었던 것 같으니, 양자컴퓨터에 대한 작은 회의감을 불러 일으킬수도 있겠다. Classical shadow는 여러번 들어보았는데 아직 제대로 공부를 안해봤다 -_- 물론 머신러닝쪽도 잘 모르니 논문을 읽을 엄두도 안나지만.

2020 ACM Prize in Computing 수상자: Scott Aaronson

2020년 ACM Prize in Computing의 수상자가 Scott Aaronson으로 며칠 전 발표되었다. 사실 벌써 일주일인데 요 근래 정신이 없어서 자꾸 미뤘다 -_-.. 근데 왜 ACM 상들은 헷갈리게 n+1년에 n년 상을 주는걸까 -_- 이 블로그에 소개는 하지 않았지만 2020 튜링상도 발표되었다. 컴파일러쪽에 큰 기여를 하신분들인것 같은데 잘은 몰라서 패스.

여튼 Scott Aaronson은 이 블로그에서 굉장히 자주 소개한 사람이다. 양자컴퓨터와 계산복잡도에 관해 주로 연구하고, 이를 보통(?)사람들에게 쉽게(?) 설명하는 책이나 블로그 글을 자주 쓴다. 당연히 Aaronson의 블로그에도 자신의 수상 결과를 알리는 포스팅도 있다. ACM측에서 밝힌 수상 이유는 대략 다음과 같다.

  • 양자우월성을 위해 샘플링 기반의 실험의 이론적 기반을 제시, 특히 최근 실험된 보손샘플링의 이론적 기반 제시 [관련글]
  • Avi Wigderson과 함께 P=NP를 증명하는게 어려운 이유인 Algebrization을 제안. 우연의 일치인지 2021년 Wigderson은 아벨상 수상자로 채택되었다 [관련글]
  • 양자컴퓨터의 특정 문제 (collision finding)에 관한 한계를 제시
  • 공적으로 접근할 수 있는 양자컴퓨터에 대한 소스를 , 블로그나 여러 톡을 통해 제공

또한 블로그에 소개했던 이런저런 Aaronson에 관한 글은 다음과 같은게 더 있다.

  • 큰 숫자들 (Big Numbers)이라는 글을 통해 숫자를 세는 방법과 물리학, 컴퓨터과학을 섞어서 재미있게 설명했다 [링크]
  • 거시적인 양자 성질을 관측하기 어려운 이유도 제시했다 [링크]
  • 구글의 양자우월성 실험에 관련된 이론적 배경에도 부분적으로 기여하였다 [링크, 관련논문]

또한 언젠가 소개해야지 하면서 아직도 안하고 있는 재미있는 다음과 같은 결과들도 있다.

  • 양자상태를 고전적으로 설명하는게 어느정도나 가능한지에 관한 연구들
  • Huang의 Sensitivity Conjecture의 증명에 따른 양자 복잡계 이론의 결과
  • 시간이 선형적이 아닌 Closed timelike curve와 컴퓨터가 만나면 어떻게 되는지에 대한 연구
  • (잘 만들어진) 양자컴퓨터로 효율적으로 계산할 수 있지만, 엄청나게 강력한 파워를 가진 컴퓨터도 고전적으로 계산할 수 없는 문제의 제시
  • 양자적으로 굉장히 빨리 풀 수 있는 문제들은 Group 등의 특정한 구조를 가져야 할 것이라는 추측과 증명방향 제시

혹시 언젠가 여유가 된다면 이것들 중 재미있는것들을 포스팅을..-_-

구글의 양자컴퓨터를 통한 Zoom 미팅

Zoom video call is powered by Google’s quantum computer이라는 기사가 Physics world에 올라왔다. 구글 시카모어팀이 Zoom 미팅을 하던 중 발견한 이 결과는 Journal Quantum Advanceds of Computing and Correlation라는 저널에 실렸다고.

좀 더 자세하게, 구글의 양자우월성 실험 [지난글 1,지난글 2]에 사용된 Sycamore를 이용해 Zoom 미팅에서 일종의 “quantum Zoom advantage”를 얻을수 있다고. 이 결과는 워털루대학의 Benedetta Brassard교수가 Zoom 미팅을 할때 어쩌다 Zoom미팅 중 Sycamore에 실행했을 때 발견되었다고 한다.

Brassard가 미팅중 Sycamore에 연결해 대시보드를 확인하며 계산이 어떻게 되어가는지 확인하며 Shor알고리즘에 관한 시덥잔은 농담을 던지던 도중, 11명의 미팅 참가자들은 Sycamore의 53큐비트에 혼란스러운 양자상태로 중첩되었고, 몇몇 사람들은 Brassard의 말을 들을수 있던 반면 몇몇 사람들은 대화가 들리지 않는다고 말했다고.

이는 아마 Sycamore와 Zoom이 연결된 동안 양자역학의 다세계 해석이 일어난것으로 생각된다고 한다. 어떤 의미에서 Brassard가 동시에 여러 회의실에 들어간 것으로 보인다고. Brassard는 여러 화면이 줌에 나타나는 것을 보며 고전세계로 돌아가기 위해 측정, 즉 다른사람의 말에 귀를 기울이고 들었다고 한다.

저자들은 이 현상을 통해 참가자들이 여러 회의실에 동시에 참가하고, 지루한 회의시간을 줄이는 현실에 가장 가까운 양자컴퓨터를 통한 이득을 볼 수 있을것이라고 예측한다고.


물론 굉장히 공들인 만우절 기사이다 -_-

구글의 양자우월성 실험에 대한 반박

오늘 막 중국 두 연구자 Feng Pan과 Pan Zhang이 아카이브에 발표한 결과에 따르면 구글의 양자우월성 실험 [지난글 1, 지난글 2, 지난글 3]이 양자우월성을 보여주지 못한다고 한다. 즉, 고전컴퓨터를 이용한 시뮬레이션으로 양자컴퓨터 실험보다 더 정확한 샘플링 결과를 얻었다는 것. 아직 검증이 되지는 않았지만, 논문에서 주장하는 결과와 논의를 요약하면 다음과 같다.

  • 0에 가까울수록 고전컴퓨터에, 1에 가까울수록 (더 좋은) 양자컴퓨터에 가까운 척도가 되는 XEB Fidelity 값이 구글의 실험(0.002)을 압도하는 0.739를 달성했다고 한다. 실험은 60개의 GPU를 이용해 5일간 진행하여 2백만개의 샘플을 얻어냈다고.
  • 다만 고전적 알고리즘 자체는 (랜덤 회로의 depth/qubit 수의) 지수적시간이 필요해서 구글의 양자컴퓨터 실험이 더 큰 범위로 된다면 다시 양자우월성을 보일수 있을 것이라고.
  • 또한 구글의 실험과 다르게 2백만개의 샘플이 서로 correlated 되어있다는 문제도 있다고 한다. 그치만 별 문제는 아닌듯.

이전 다른 논문이 슈퍼컴퓨터를 이용해 20일정도에 구글의 실험과 비슷한 결과를 얻을 수 있을거라고 했는데, 그거보다 훨씬 좋은 결과인듯. 결과의 참거짓은 모르지만, 다행히 보손샘플링을 이용한 양자우월성 실험 [지난글]이나 여기는 언급하지 않은 불완전한 증명이 주어진 NP문제의 검증에 대한 실험 논문도 있어서 그래도 최소한 에러가 있는 양자컴퓨터는 가까이 있지 않을까 희망해본다 -_-.

보손 샘플링을 통한 양자우월성의 증명

12월 초 아카이브에 Quantum computational advantage using photons라는 제목의 논문이 올라왔다. 중국의 Chao-Yang Lu를 위시한 중국과학기술대학의 연구자들을 중심으로 발견한 결과. Jiuzhang(구장산술의 구장이라고 한다.)이라는 광-양자 컴퓨터(Photonic quantum computer)를 통해 40-70여개의 관찰된 광자에 보손 샘플링 실험을 통해 양자우월성(Quantum Supremacy)을 증명했고, 12월 18일 Science지에 실렸다. 소개하는 기사로는 Science NewsScientific American의 기사가 볼만하다고 한다. 지금까지의 양자우월성 실험은 작년의 구글의 실험뿐인데, 이에 관해서는 지난 블로그글을 참조. [글 1,글 2,글 3]

이 결과는 같은 그룹의 작년 결과인 14개의 광자를 통한 실험 [논문]의 확장이라고. 안타깝게도 이 방면은 자세히 알지 못해서 -_- 간단하게만 설명해보고자 한다. 사소하게나 크게 틀릴 가능성이 농후하지만 큰 방향은 맞을것이다. 아마도.. 즉 이 글의 목표는 다음 것들을 여러 가십과 함께 간단하게 소개하는 것이다.

  • 보손 샘플링과 관련된 양자계산의 소개
  • 보손 샘플링이 양자우월성의 실험이 될 수 있다고 믿는 근거
  • 구글과 길 칼라이(Gil Kalai)가 제시한 반박 가능성

물론 글의 많은 부분은 아론손(Aaronson)의 블로그 글 [글 1,글 2]들을 많이 참조했다.

계속 읽기

Grover algorithm과 QRAM

쇼어 알고리즘과 더불어 가장 유명한 양자알고리즘 중 하나인 그로버 알고리즘은 흔히 unstructured database search로도 불린다. 즉, 딱히 조건이 없는 N개의 데이터 중 원하는 데이터값의 존재성/위치를 결정하는데 양자적으로 O(√N)번의 데이터 확인으로 충분하다는 말.

그런데, 이게 얼마나 사실일까? 이 글에서는 Grover algorithm에 대한 설명과 의의를 Quantum Random Access Memory, 즉 QRAM과 아주 살짝 엮어서 얘기하고자 한다. 목차는 다음과 같다.

  1. Grover algorithm
  2. unstructured database search
  3. Quantum spatial search
  4. RAM model과 QRAM
계속 읽기

경사하강법은 양자적으로도 최적이다

볼록최적화(Convex optimization)의 대표적인 방식으로 유명한 경사하강법(Gradient Descent)이 있다. 이 방법은 f:Rn->R의 함수값 중 일정 범위에서 최솟값을 (정확히는 극값 local minimum을) 찾는 유용한 방법이다. 특히 f가 아래로 볼록인 경우 항상 최솟값을 잘 찾아줌이 알려져 있다.

경사하강법은 굉장히 직관적이라는 장점이 있다. 최적화를 해 나가는 과정에서 각 점의 함수값 f(x)과 기울기(gradient) ∇f(x)만을 계산하고, 다음 점을 찾을 때 현재 점에서 기울기방향으로 조금씩 진행해 나가는 것. 이런식으로 f와 ∇f만을 이용해 최적값을 구하는 문제를 1차 볼록최적화(first-order convex optimization)이라고 한다. 놀랍게도 1차 볼록최적화의 경우 고전적으로 경사하강법이 최적임이 알려져 있다고 한다.

그런데 오늘 올라온 마이크로소프트 팀의 로빈 코타리(Robin Kothari)등의 논문 [1]에 따르면 일반적으로 경사하강법이 양자알고리즘을 고려해도 최적이라고 한다. 정확한 저자들의 결과만 보면 (대충) 다음과 같다.

우선 저자들의 목표는 다음 문제를 푸는 것이다.

[문제 1] 아래로 볼록인 f:Rn->R이 B(0,R)에서 G-Lipschitz continuous이고, x*=argminx∈B(0,R)(f(x))일 때, f(x)≤f(x*)+ε인 x를 함수값 f와 기울기 ∇f를 최소한으로 계산하며 찾는것이다. 양자알고리즘은 해당 값을 양자적으로 계산할 수 있다.

우선 이전에 알려진 결과는 다음과 같다.

정리 1. 사영 경사강하법은 (GR/ε)2번의 함수값과 기울기 계산을 통해 문제 1을 풀 수 있다.

여기서 사영 경사강하법은 B(0,R)으로 나간 경우 B(0,R)으로 사영해버리는 방식으로 진행하는 경사강하법이다.

정리 2. (G,R,ε이 정해졌을 때) 어떤 볼록함수들의 집합이 존재해서, 문제 1을 푸는 임의의 고전알고리즘 (e.g. 에러가 있는, 확률론적..)은 최악의 경우 Ω((GR/ε)2)번의 함수값과 기울기 계산을 해야만 한다.

이 결과는 여러번 다른 방법으로 증명되었다고 한다. 예를 들어 Nemirovsky와 Yudin의 오래된 교과서 [2]에서나, NeurIPS’19에 게제된 논문 [3]에서도 그 결과를 증명했다고. 이 논문에서 이 결과를 새로 증명하기도 하는데, 저자들의 주장으로는증명이 더 간단하고 필요한 f의 정의역의 차원 n이 비교적 작다고.

그리고 저자들의 결과는 정리 2의 양자버젼. 다음과 같다.

정리 3. (G,R,ε이 정해졌을 때) 어떤 볼록함수들의 집합이 존재해서, 문제 1을 푸는 임의의 양자알고리즘은 최악의 경우 Ω((GR/ε)2)번의 함수값과 기울기 계산을 해야만 한다.

다만, 두 정리에서 잡는 함수들의 집합이 좀 다르다. 특히 저자들은 정리 2에서 사용한 함수들의 집합의 경우 양자적으로는 O(GR/ε)번의 계산만 해도 충분함을 보였다고.

전공분야는 아니지만 재미있어보여서 약간 정리해봄 -_-ㅋㅋ 논문도 엄청 어려운것 같지는 않고, 증명 자체는 BBBV97 [4]부터 내려온 스탠다드한 hybrid argument를 쓰는듯 하다. 그치만 그래도 길고 별로 흥미롭지도 않으니 생략.

[1] No quantum speedup over gradient descent for non-smooth convex optimization, arxiv.org
[2] Problem complexity and method efficiency in optimization, Wiley
[3] Complexity of highly parallel non-smooth convex optimization, NeurIPS 2019
[4] Strengths and Weaknesses of Quantum Computing, SIAM Journal on Computing

거시적인 양자 성질은 관측하기 어렵다

[주의: 글쓴이는 물리학적인 지식이 굉장히 부족하다. 그래서 아래 설명 중 세부적인 부분이나 이론적 배경, “썰”이 좀 틀릴 수 있다. 혹시 문제가 되는 부분을 발견하면 지적바람 -_-ㅋ]

아마 이 블로그의 독자들은 슈뢰딩거의 고양이 사고실험에 익숙할 것이라고 믿는다. 이 실험은 고양이를 외부와 차단된 방에 넣은 후, 0 또는 1의 상태를 가지는 입자를 (normalizing factor를 생략한) 다음과 같은 양자상태

|0〉+|1〉

로 만들고, 상태가 0일때 고양이를 죽이는 가스를 살포하고 1일때 아무일도 하지 않아 고양이의 상태를

|Dead〉+|Alive〉

으로 만드는 실험이다. 즉 주어진 입자의 양자상태에 따라 고양이의 삶과 죽음이 중첩되는 이상한 일이 벌어진다는 것이다. 지금 보니 굉장히 잔인하다 -_-…

여튼 원래 이 실험은 슈뢰딩거가 양자역학의 역설적인 부분을 지적하기 위해 제시했다고 한다. 지금은 아이러니하게 양자역학을 설명하는 대표적 실험으로 자리잡았지만 말이다ㅋㅋㅋ

대중적으로 설명될 때 이 실험은 사실 양자역학이 아니라 확률론적인 관점에서 설명이 된다. 즉, 입자의 상태가 양자상태로 중첩되어있는 (superposition) 설명이 아니라, 50%의 확률로 0, 50%의 확률로 1의 상태를 갖고 이에 따라 고양이도 50%의 확률로 살고 죽는다는 식의 설명. 근데 이 설명은 (예측불가능한) 난수가 있는 비결정론적(확률론적) 세계관에 더 가깝지, 양자역학적 세계관의 설명이 아니다!

여기서 다음과 같은 질문이 떠오른다:

슈뢰딩거의 고양이 실험, 혹은 비슷한 거시적인 실험으로 양자적 성질을 확인할 수 있을까?

물론 학자들은 우리 세계가 양자역학으로 잘 설명된다는 것은 이런저런 미시적 실험을 통해 이미 잘 이해했다. 그치만 이런 상상도 궁금하지 않은가 ㅋㅋ

며칠 전 (!) 이 문제에 대한 대답을 하는 논문 [1]이 올라왔다. 저자는 양자컴퓨터의 대가의 스콧 아론손과 끈이론, 우주론 등으로 유명한 레나드 써스킨드, 그리고 Yosi Atia라는 학생. 그들에 따르면 아마 그런 실험적 증명은 불가능할 것이라고 한다. 아론손의 발표는 [2]에서 확인할 수도 있다.

논문에서 설명하는 정확한 이유는 다음과 같다. 우선 슈뢰딩거의 고양이 실험에 해당하는 양자상태

|Dead〉+|Alive〉

와 이를 고전적으로 설명하는 (1/2로 살고 죽는) 확률론적 상태

[(1/2,|Dead〉), (1/2,|Alive〉)]

를 최적의 확률로 구별하는 양자회로 U가 존재한다고 가정하자. 그러면 이를 이용해서 비슷한 크기의, 다음 식을 만족하는 다른 양자회로 V를 만들수 있기 때문이라고 한다.

V|Dead〉=|Alive〉, V|Alive〉=|Dead〉

(물론 이건 엄청 간단하고, 저자들은 더 강력하게 이 명제가 정확하지 않은 측정 (즉, 특정확률로 틀리는 회로)에 대해서도 비슷하게 성립한다는 robustness와 그것의 tightness도 증명하였다.)

근데 이 회로 V의 결과를 보면 “죽음”과 “삶”을 바꾸는 연산이다. 즉, 죽은 고양이를 살리는 연산 (!!)이라는 것이다. 우리 세상에서는 이러한 연산이 (최소한 현실적으로는) 불가능할 것으로 보이고, 따라서 관찰자도 거시적인 고양이의 상태가 양자적인지 고전적인지 구별하기 어렵다는 것이다. 이에 따라 저자들은 거시적 실험을 통해 양자상태를 확인하는게 양자사령술만큼 어려운 문제라고 주장한다 ㅋㅋㅋ

비슷한 거시적 실험을 들고와도 두 상태는 확연히 구별될테고, 이를 바꾸는 것은 보통 쉽지 않으니 거시적 관점에서 양자상태를 확인하기 어렵다고. 예를 들어 고양이 대신 친구(!)를 넣고 그 측정 결과를 위그너의 친구 실험이 있는데, 이 경우에도 친구가 양자상태에 있는지 확률론적으로 있는지를 구별하려면 친구의 생각을 바꾸는 연산이 필요하다고.

이 해석을 좀 더 다양한 물리학적/철학적 관점으로 일반화 시키면, 만약 우리가 양자적으로 다중우주에 산다고 해도, 우리가 그 우주의 상태를 서로 바꿀 수 없다면 우리가 다중우주에 산다는 것을 경험/확인할 방법이 없다는 뜻을 가진다고 한다. (무슨말인지 사실 잘 모르겠지만..) 우리가 열역학적인 시간의 방향(Thermodynamic arrow of time)을 따른다면, 우리가 이를 반대방향으로 돌릴 능력이 없다면 이를 확인/경험한할 방법이 없다고.

물리학이란 아무리 봐도 참 신기하다 ㅋ. 아론손의 6월 발표를 담은 유튜브 [2]도 좀 참고하였다.

[1] On the Hardness of Detecting Macroscopic Superpositions, arxiv.org
[2] Schrödinger’s Cat and Quantum Necromancy, Workshop on Complexity from Quantum Information to Black Holes (Online, youtube record)

양자컴퓨터에 대한 최근 예측들

요 며칠간 양자컴퓨터의 미래에 대한 의견이 두개 등장했다. 하나는 IBM의 단기간 (수년)에 대한 긍정적인 주장 [1]이고, 다른 하나는 장기간 (수십년)에 대한 약간은 부정적인 예측 [2]이다. 약간은 상반된 것 같은데, 여기 아주아주 간단히 기록해본다. 사실 두 논문 모두 이론적인 설명이라기보단 주장/홍보나 지금까지의 발전에 의한 수치적 예측이여서 뭐 이론적으로 설명할 것이 없음 ㅋㅋ


우선 IBM은 최근 2023년까지 1121 qubit ㅡㅡ!의 크기를 갖는 양자컴퓨터를 발표할것이라고 발표했다. 아래는 IBM의 로드맵.

A look at IBM’s roadmap to advance quantum computers from today’s noisy, small-scale devices to larger, more advance quantum systems of the future. Credit: StoryTK for IBM
IBM’s roadmap to advance quantum computer. Taken from IBM blog

아니 뭐 IBM 블로그에 올라온 그림이 안선명하냐 -_-… 뭐 대충 1년에 2배이상의 큐비트를 다룰수 있는 양자컴퓨터를 설계하겠다는 주장인듯 하다. 근데 구글인가 어디에선가 누가 오류율(error rate)가 없는 큐비트에 대한 주장은 믿지 마라 그랬는데 ㅋㅋㅋ 그냥 간단한 소개글이라 그런지 딱히 오류율에 대한 얘기는 없다. 물론 저 큐비트들이 에러가 적은건 아닐테고, Sycamore랑 비슷하거나 더 심한 수준이 아닐까 싶다.


그 다음 주장은 NTT Research와 영국 애버딘 대학의 연구자의 결과로써, 지금까지의 발표된 연구결과를 바탕으로 통계적으로 양자컴퓨터의 미래를 예측하는 논문이다. 이런 미래를 예측하는게 아예 없었던건 아니고, 이전에 몇 개가 있었다고 한다. 두 개만 비교를 위해 살짝 들고와서 비교하자.

  • 스탠포드의 마크 호로위츠(Mark Horowitz)와 Emily Grumbling은 2019년 출판된 책에서 RSA-2048이 2020년대에 깨질일은 없을것이라고 추측했다고 한다 (It is highly unexpected that..). 그리고 여러 예측을 했다는데 파는 책이라서 딱히 찾아보고 싶지는 않다 -_-.
  • 워털루대학의 미셸 모스카(Michele Mosca)와 마르코 피아니(Marco Piani)는 연구자들에 대한 설문조사를 진행했는데, 22.7%의 학자가 RSA-2048이 2030년 내에 깨질것이라고 생각했고, 50%의 학자가 2035년까지는 깨질것이라고 생각했다고 한다. 아래가 해당 논문의 예측인듯.
Image
  • 이 논문에서는 통계적 추측을 통해 조금 더 부정적인 주장을 한다. 2026년까지는 (에러정정부호등을 이용해서) 오류율을 굉장히 작은 (10-18정도인듯) 하나의 큐비트를 만들 확률이 5%이하라고 예측했다. 그리고 2039년까지도 RSA-2048을 양자컴퓨터를 이용해 깰 확률이 5%이하라고 예측했다. 다만 이는 최근 50여개의 샘플논문을 통한 예측이긴 하다. 물론 이 보다 빠르려면 뭔가 새로운 혁신이 필요할 것이라고. 그게 그렇게 자주 나오려나 -_-? 아래는 2023년까지 달성할것으로 예측하는 양자컴퓨터의 범위.
Image
가로축은 큐비트의 수, 세로축은 오차율을 나타낸다. 그래프 내의 숫자는 확률. 즉, 90%이내의 확률로 2023년의 양자컴퓨터는 100큐비트정도를 달성할 것이라는 것.

신기하게도 2023년에 대한 두 예측이 완전 딴판이다 ㅋㅋ 3년 후면 확인할 수 있으니 그저 기다려본다.

[1] IBM’s Roadmap For Scaling Quantum Technology, IBM blog
[2] Forecasting timelines of quantum computing, arxiv.org

구글의 랜덤회로샘플링은 좋은 평가기준일까?

작년 화제가 된 구글의 양자우월성 증명은 양자랜덤회로를 만들고, 그 결과를 측정(measure)하여 얼마나 올바른 분포를 만들었는지를 관측하는 XEB Fidelity benchmark를 사용했다. 지난번 관련된 글을 두개 써서 현황을 설명하기도 했다.

그런데 실제로 우리가 쓸 것으로 예상되는 회로들은 Grover의 알고리즘이나 HHL의 선형방정식 알고리즘, 양자 머신러닝, Shor의 알고리즘등 같은 연산을 반복하거나 (Grover, HHL) 비슷한 연산을 반복하는 양자 Fourier 변환등을 이용하게 된다. 즉, 우리가 실제로 쓸 연산은 랜덤회로와 달리 굉장히 구조적이라는 것.

그렇다면 과연 구글의 양자랜덤회로 샘플링을 통한 평가가 우리가 실제로 쓸 것으로 예상되는 “구조적”인 알고리즘을 평가하는데에 얼마나 도움이 될까? 가장 이상적으로는 랜덤회로나 구조적인 회로나 비슷한 수준의 에러를 갖거나, 구조적인 회로가 더 적은(!)에러를 갖는 경우일 것이다.


하지만 안타깝게도, 어제 아카이브에 올라온 논문에 따르면 실제로는 그 반대인듯 하다고 한다. 즉,

현재 기술로는 양자랜덤회로 샘플링이 구조적 알고리즘보다 쉽다

라는 것. 그러니까, 양자랜덤회로의 에러가 구조적 알고리즘의 에러보다 더 작다는 말.

다만 이 실험은 구글의 Sycamore가 아닌, 실험하기 더 쉬운 IBM Q와 Rigetti의 양자컴퓨터를 이용해서 진행했다고 하니 Sycamore의 경우는 어떤지 아직 알수는 없다. 그 실험적 결과는 아래와 같다.

Image
논문에서 가져온 그림. 오른쪽 그래프는 보지 않아도 된다. (a), (b)에서 각 칸은 실험에서 사용한 큐비트 수(width)와 회로의 깊이(depth)에 따라 배치되었으며, 내부의 색은 랜덤회로의 정확성, 외부의 색은 구조적 회로의 정확성을 나타낸다. 붉을수록 부정확하고, 푸른색/녹색일수록 정확함을 표시한다. (a)는 실험 결과에서 나타난 정확성이고, (b)는 서버에서 제시한 회로의 오차를 통해 예측한 정확성.

위 그림을 살펴보면 꽤나 부정적인 결과를 여럿 얻을 수 있다.

  • 전체적으로 회로의 정확성이 예측보다 훨씬 못한 편이다.
  • 대체적으로 구조적 회로가 랜덤회로보다 훨씬 부정확하다. (가끔 그렇지 않은 경우도 있긴 하다)
  • 7큐비트정도부터는 depth를 조금만 늘려도 전부 다 제 멋대로 나오는듯 하다.
  • IBM Q Melbourne은…. 뭔가 문제가 있어 보인다.

근데, 지난 글에서 구글의 실험 자체가 옳은지를 검증하는게 어렵다는 말을 한적이 있다. 이 논문에서 어떻게 구조적 회로와 랜덤회로의 정확성/에러를 확인한걸까? 마지막으로 논문에서 이 부분을 어떻게 해결했는지 살펴보자.

저자들이 사용한 방식은 거울회로, 혹은 실험에 사용한 회로 C의 역인 C-1, 혹은 그의 변형을 생각하는 것이다. 논문에서는 다음과 같이 그림으로도 설명해준다.

Image

대충 원래 적용한 회로의 역, 혹은 그거를 약간 변형한 방식을 한번 더 적용함으로써 답이 고전상태로 정해지는 독특한 회로를 만든것.

이 회로의 결과는 고전컴퓨터로 계산/검증이 쉽지만 에러가 있는 양자컴퓨터로는 계산하기 어렵다. 어찌보면 양자우월성에서 필요했던 회로의 듀얼 버젼인데, 이걸 이렇게 간단히 만들 수 있다는 사실이 신기하군ㅋ