NVIDIA使用cuQuantum创下量子计算模拟的世界记录
在新兴的量子计算世界中,NVIDIA刚刚打破了具有重大影响的记录,并且正在推出相应软件,以便任何人都可以完成这项工作。
量子计算将推动气候研究、药物发现、金融等领域的新一波进步。通过在今天的经典系统上模拟未来的量子计算机,研究人员可以更快地并以其他方式无法实现的规模来开发和测试量子算法。
为实现这一未来,NVIDIA使用cuQuantum创建了有史以来最大的量子算法模拟,以用于解决MaxCut问题,cuQuantum是该公司用于在GPU上加速量子电路模拟的SDK。MaxCut是量子社区中的一个关键问题,因为它是展示使用量子算法优势的主要候选者之一。
在数学世界中,MaxCut经常被引用为一个已知计算机无法有效解决的优化问题的例子。MaxCut算法被用于设计大型计算机网络,以找到具有数十亿硅通路的芯片的最佳布局,并且用来探索统计物理领域。
NVIDIA使用运行在其内部超级计算机Selene上cuQuantum中的cuTensorNet库来模拟量子算法以解决MaxCut问题。该公司使用GPU来模拟1688个量子比特,能够解决一个包含多达3375个顶点的图。这比之前最大的量子模拟多8倍。该解决方案也非常准确,达到了最著名答案的96%。
这项突破为在NVIDIA DGX系统上使用cuQuantum并以前所未有的规模研究量子算法打开了大门 ,它加速了通往未来量子计算机的道路。
现在用户可以试用拥有此世界纪录的相同软件。从现在开始,cuQuantum的第一个库cuStateVec处于公开测试阶段,它已可供下载。它使用状态向量来加速数十个量子比特的模拟。帮助NVIDIA创造了世界纪录的cuTensorNet库使用张量网络在一些有前途的近期算法上模拟了多达数百甚至数千个量子比特。它将于12月上市。(编译:Qtech)