티스토리 뷰
양자 컴퓨터는 양자 역학적 현상을 이용하는 컴퓨터입니다. 소규모에서 물리적인 물질은 입자와 파도의 특성을 나타내며, 양자 컴퓨팅은 이 동작을 특수 하드웨어를 사용하여 이용합니다. 고전 물리학에서는 이러한 양자 장치의 동작을 설명할 수 없으며, 확장 가능한 양자 컴퓨터는 현대의 어떤 "고전적" 컴퓨터보다 기하급수적으로 빠른 계산을 수행할 수 있습니다. 이론적으로 대규모 양자 컴퓨터는 널리 사용되는 암호화 체계를 파괴하고 물리 시뮬레이션을 실행하는 물리학자를 도울 수 있지만, 현재의 기술 상태는 주로 실험적이고 실용적이지 않으며 유용한 응용 프로그램에 몇 가지 장애물이 있습니다.
양자 컴퓨팅에 있어서의 정보의 기본 단위인 큐비트(또는 「양자 비트」)는, 고전적인 컴퓨팅에 있어서의 비트와 같은 기능을 합니다. 단, 2개의 상태(바이너리) 중 하나에 있을 수 있는 고전적인 비트와는 달리 큐비트는 2개의 '기본' 상태의 중첩에 존재할 수 있습니다. 큐비트는 두 가지 기본 상태 사이에 있는 추상적인 의미로 존재합니다. 큐비트를 측정할 경우 결과는 고전 비트의 확률적 출력이 됩니다. 양자 컴퓨터가 특정 방식으로 큐비트를 조작하면 파동 간섭 효과에 의해 원하는 측정 결과가 증폭됩니다. 양자 알고리즘의 설계에는 양자 컴퓨터가 효율적이고 신속하게 계산을 실행할 수 있도록 하는 절차의 작성이 포함됩니다.
양자 컴퓨터는 아직 실제 작업에 실용적이지 않습니다. 고품질의 큐비트를 물리적으로 엔지니어링하는 것은 어렵다는 것이 증명되었습니다. 물리 큐비트가 환경으로부터 충분히 분리되어 있지 않은 경우는, 양자 결깨짐에 시달려 계산에 노이즈가 생깁니다. 각국 정부는, 보다 긴 일관성 시간과 보다 낮은 에러율을 가지는 스케일러블한 큐비트의 개발을 목적으로 하는 실험 연구에 고액의 투자를 하고 있습니다. 예로는 초전도체(전기저항을 배제하고 전류를 분리한다)나 이온트랩(전자기장을 사용해 단일 원자입자를 가둔다) 등이 있습니다.
원칙적으로 고전적인 컴퓨터는 충분한 시간이 있으면 양자 컴퓨터와 같은 계산 문제를 해결할 수 있습니다. 양자 우위성은 계산 가능성보다 시간 복잡성의 형태로 나타나고, 양자 복잡성 이론은 여러 양자 알고리즘이 가장 잘 알려진 고전 알고리즘보다 기하급수적으로 효율적임을 보여줍니다. 대규모 양자 컴퓨터는 이론적으로는 고전적인 컴퓨터로는 해결할 수 없는 계산 문제를 합리적인 시간에 해결할 수 있습니다. 이 추가 능력의 개념은 '양자 지상주의'라고 불립니다. 이러한 주장은 규율에 큰 주목을 받고 있지만, 단기적인 실용적인 사용 예는 여전히 한정되어 있습니다.
역사
오랜 세월에 걸쳐 양자역학과 컴퓨터 과학 분야는 독자적인 학술 커뮤니티를 형성해 왔습니다. 1920년대에 원자 규모에서 관측된 복잡한 물리 현상을 설명하기 위해 현대 양자 이론이 발전하면서, 디지털 컴퓨터는 이후 수십 년 동안 인간 컴퓨터로 대체되었고, 지루한 계산으로 대체되었습니다. 두 분야는 제2차 세계대전 중 실용화되었고, 전시 암호화에서 컴퓨터가 큰 역할을 했으며, 양자물리학은 맨해튼 계획에서 사용되는 핵물리학에 필수적이었습니다.
물리학자들이 양자역학 모델을 계산 문제에 적용하고 디지털 비트를 양자 비트로 교환하자 양자역학과 컴퓨터 과학 분야가 융합되기 시작했습니다. 1980년 폴 베니오프는 양자 튜링 머신을 도입했습니다. 양자 이론을 사용하여 단순화된 컴퓨터를 설명합니다. 디지털 컴퓨터가 빨라지면 물리학자들은 양자역학을 시뮬레이션할 때 기하급수적인 오버헤드의 증가에 직면하여 Yuri Manin과 Richard Feynman은 양자 현상에 기반한 하드웨어가 컴퓨터 시뮬레이션을 통해 효율적일 가능성을 단독으로 제안하게 되었습니다. 1984년 논문에서 찰스 베넷과 길스 블라사드는 양자론을 암호화 프로토콜에 적용해 양자키 배포가 정보보안을 강화할 수 있음을 입증했습니다.
이후 1985년 독일 알고리즘, 1993년 번스타인-바지라니 알고리즘, 1994년 사이먼 알고리즘 등 오라클 문제를 해결하기 위해 양자 알고리즘이 등장했습니다. 이러한 알고리즘은 실용적인 문제를 해결하지는 못했지만, 양자 병렬성이라고 불리기도 하는 양자 상태를 가진 블랙박스에 문의하면 더 많은 정보를 얻을 수 있음을 수학적으로 증명했습니다.
Peter Shor는 널리 사용되는 RSA와 Diffie를 깨기 위한 1994년 알고리즘을 사용하여 이러한 결과를 구축한 헤르만 암호화 프로토콜은 양자 컴퓨팅 분야에 큰 주목을 받았습니다. 1996년 글로버의 알고리즘은 널리 적용 가능한 비구조화 검색 문제에 대한 양자 스피드업을 확립했습니다. 같은 해 세스 로이드는 양자 컴퓨터가 고전적 시뮬레이션에 존재하는 지수함수적 오버헤드 없이 양자 시스템을 시뮬레이션할 수 있음을 증명하고 파인먼의 1982년 추측을 검증했습니다.
수년간 실험자들은 갇힌 이온과 초전도체를 사용하여 소규모 양자 컴퓨터를 구축해 왔습니다. 1998년, 2큐비트의 양자 컴퓨터가 이 기술의 실현 가능성을 실증했고, 이후의 실험에 의해 큐비트의 수가 증가하고, 에러율이 감소했습니다.
2019년 구글 AI와 NASA는 54 큐비트 머신에서 양자 우위를 달성했다고 발표하고 어떤 고전적인 컴퓨터에서도 불가능한 계산을 실행했습니다. 그러나 이 주장의 타당성은 아직 활발하게 연구되고 있습니다.
'경제 이야기' 카테고리의 다른 글
규제 기술에 대해서 (2) | 2025.01.07 |
---|---|
지속 가능한 금융에 대해서 (0) | 2025.01.06 |
보안 토큰 제공(Security Token Offering, STO)에 대해서 (7) | 2025.01.04 |
스테이블코인에 대해서 (0) | 2025.01.03 |
자본(금융)에 대해서 (4) | 2025.01.02 |