Platone Data Intelligence.
Ricerca verticale e intelligenza artificiale.

Generalizzazione nonostante l'adattamento eccessivo nei modelli di apprendimento automatico quantistico

Data:

Evan Peters1,2,3 e Maria Schuld4

1Dipartimento di Fisica, Università di Waterloo, Waterloo, ON, N2L 3G1, Canada
2Istituto per l'informatica quantistica, Waterloo, ON, N2L 3G1, Canada
3Istituto perimetrale di fisica teorica, Waterloo, Ontario, N2L 2Y5, Canada
4Xanadu, Toronto, ON, M5G 2C8, Canada

Trovi questo documento interessante o vuoi discuterne? Scrivi o lascia un commento su SciRate.

Astratto

Il successo diffuso delle reti neurali profonde ha rivelato una sorpresa nell’apprendimento automatico classico: modelli molto complessi spesso si generalizzano bene e allo stesso tempo si adattano eccessivamente ai dati di addestramento. Questo fenomeno di overfitting benigno è stato studiato per una varietà di modelli classici con l’obiettivo di comprendere meglio i meccanismi alla base del deep learning. Caratterizzare il fenomeno nel contesto dell’apprendimento automatico quantistico potrebbe allo stesso modo migliorare la nostra comprensione della relazione tra overfitting, iperparametrizzazione e generalizzazione. In questo lavoro, forniamo una caratterizzazione del sovraadattamento benigno nei modelli quantistici. Per fare ciò, deriviamo il comportamento di un classico modello di caratteristiche di Fourier interpolante per la regressione su segnali rumorosi e mostriamo come una classe di modelli quantistici presenti caratteristiche analoghe, collegando così la struttura dei circuiti quantistici (come le operazioni di codifica dei dati e di preparazione dello stato ) alla sovraparametrizzazione e al sovradattamento nei modelli quantistici. Spieghiamo intuitivamente queste caratteristiche in base alla capacità del modello quantistico di interpolare dati rumorosi con comportamenti localmente “spiky” e forniamo un esempio dimostrativo concreto di overfitting benigno.

► dati BibTeX

► Riferimenti

, Michael A Nielsen. “Reti neurali e deep learning”. Stampa di determinazione. (2015). URL: http://​/​neuralnetworksanddeeplearning.com/​.
http: / / neuralnetworksanddeeplearning.com/

, Stuart Geman, Elie Bienenstock e René Doursat. “Le reti neurali e il dilemma bias/varianza”. Calcolo neurale. 4, 1–58 (1992).
https: / / doi.org/ 10.1162 / neco.1992.4.1.1

, Trevor Hastie, Robert Tibshirani, Jerome H Friedman e Jerome H Friedman. "Gli elementi dell'apprendimento statistico: data mining, inferenza e previsione". Volume 2. Springer. (2009).
https:/​/​doi.org/​10.1007/​978-0-387-84858-7

, Peter L. Bartlett, Andrea Montanari e Alexander Rakhlin. “Apprendimento profondo: un punto di vista statistico”. Acta Numerica 30, 87–201 (2021).
https: / / doi.org/ 10.1017 / S0962492921000027

, Michail Belkin. “Adattarsi senza paura: notevoli fenomeni matematici di deep learning attraverso il prisma dell’interpolazione”. Acta Numerica 30, 203–248 (2021).

, Peter L. Bartlett, Philip M. Long, Gábor Lugosi e Alexander Tsigler. "Sovradattamento benigno nella regressione lineare". Proc. Natl. Accade. Sci. 117, 30063–30070 (2020).
https: / / doi.org/ 10.1073 / pnas.1907378117

, Mikhail Belkin, Daniel Hsu, Siyuan Ma e Soumik Mandal. "Conciliare la pratica moderna dell'apprendimento automatico e il classico compromesso bias-varianza". Proc. Natl. Accade. Sci. 116, 15849–15854 (2019).
https: / / doi.org/ 10.1073 / pnas.1903070116

, Mikhail Belkin, Alexander Rakhlin e Alexandre B. Tsybakov. "L'interpolazione dei dati contraddice l'ottimalità statistica?". In Atti di ricerca sull'apprendimento automatico. Volume 89, pagine 1611–1619. PMLR (2019). URL: https://​/​proceedings.mlr.press/​v89/​belkin19a.html.
https://​/​proceedings.mlr.press/​v89/​belkin19a.html

, Vidya Muthukumar, Kailas Vodrahalli, Vignesh Subramanian e Anant Sahai. “Interpolazione innocua di dati rumorosi nella regressione”. IEEE Journal on Selected Areas in Information Theory 1, 67–83 (2020).
https: / / doi.org/ 10.1109 / ISIT.2019.8849614

, Vidya Muthukumar, Adhyyan Narang, Vignesh Subramanian, Mikhail Belkin, Daniel Hsu e Anant Sahai. "Classificazione vs regressione in regimi iperparametrizzati: la funzione di perdita è importante?". J.Mach. Imparare. Ris. 22, 1–69 (2021). URL: http://​/​jmlr.org/​papers/​v22/​20-603.html.
http: / / jmlr.org/ papers / v22 ​​/ 20-603.html

, Yehuda Dar, Vidya Muthukumar e Richard G. Baraniuk. “Un addio al compromesso bias-varianza? una panoramica della teoria dell’apprendimento automatico sovraparametrizzato” (2021). arXiv:2109.02355.
arXiv: 2109.02355

, Marcello Benedetti, Erika Lloyd, Stefan Sack e Mattia Fiorentini. “Circuiti quantistici parametrizzati come modelli di machine learning”. Sci quantistica. Tecnologia. 4, 043001 (2019).
https:/​/​doi.org/​10.1088/​2058-9565/​ab4eb5

, K. Mitarai, M. Negoro, M. Kitagawa e K. Fujii. "Apprendimento del circuito quantistico". Fis. Rev. A 98, 032309 (2018).
https: / / doi.org/ 10.1103 / physreva.98.032309

, Maria Schuld, Ville Bergholm, Christian Gogolin, Josh Izaac e Nathan Killoran. "Valutazione dei gradienti analitici su hardware quantistico". Fis. Rev. A 99, 032331 (2019).
https: / / doi.org/ 10.1103 / physreva.99.032331

, Maria Schuld e Nathan Killoran. “Apprendimento automatico quantistico negli spazi di Hilbert”. Fis. Rev. Lett. 122, 040504 (2019).
https: / / doi.org/ 10.1103 / physrevlett.122.040504

, Vojtěch Havlíček, Antonio D. Córcoles, Kristan Temme, Aram W. Harrow, Abhinav Kandala, Jerry M. Chow e Jay M. Gambetta. "Apprendimento supervisionato con spazi di funzionalità potenziati quantisticamente". Natura 567, 209–212 (2019).
https:/​/​doi.org/​10.1038/​s41586-019-0980-2

, Seth Lloyd e Christian Weedbrook. “Apprendimento quantistico generativo contraddittorio”. Fis. Rev. Lett. 121, 040502 (2018).
https: / / doi.org/ 10.1103 / physrevlett.121.040502

, Pierre-Luc Dallaire-Demers e Nathan Killoran. “Reti avversarie generative quantistiche”. Fis. Rev. A 98, 012324 (2018).
https: / / doi.org/ 10.1103 / physreva.98.012324

, Amira Abbas, David Sutter, Christa Zoufal, Aurelien Lucchi, Alessio Figalli e Stefan Woerner. “Il potere delle reti neurali quantistiche”. Naz. Calcola. Sci. 1, 403–409 (2021).
https:/​/​doi.org/​10.1038/​s43588-021-00084-1

, Logan G. Wright e Peter L. McMahon. “La capacità delle reti neurali quantistiche”. Nel 2020 Conferenza su Laser ed Elettro-Ottica (CLEO). Pagine 1–2. (2020). URL: https://​/​ieeexplore.ieee.org/​document/​9193529.
https: / / ieeexplore.ieee.org/ documento / 9193529

, Sukin Sim, Peter D. Johnson e Alán Aspuru-Guzik. "Esprimibilità e capacità di entanglement di circuiti quantistici parametrizzati per algoritmi ibridi quanto-classici". Avv. Tecnologia quantistica. 2, 1900070 (2019).
https: / / doi.org/ 10.1002 / qute.201900070

, Thomas Hubregtsen, Josef Pichlmeier, Patrick Stecher e Koen Bertels. “Valutazione di circuiti quantistici parametrizzati: sulla relazione tra accuratezza di classificazione, espressibilità e capacità di entanglement”. Mach quantistica. Intel. 3, 1 (2021).
https: / / doi.org/ 10.1007 / s42484-021-00038-w

, Jarrod R McClean, Sergio Boixo, Vadim N Smelyanskiy, Ryan Babbush e Hartmut Neven. "Altipiani sterili nei paesaggi di addestramento delle reti neurali quantistiche". Naz. Comune. 9, 4812 (2018).
https:/​/​doi.org/​10.1038/​s41467-018-07090-4

, Marco Cerezo, Akira Sone, Tyler Volkoff, Lukasz Cincio e Patrick J Coles. "Altipiani sterili dipendenti dalla funzione di costo in circuiti quantistici parametrizzati poco profondi". Naz. Comune. 12, 1791 (2021).
https: / / doi.org/ 10.1038 / s41467-021-21728-w

, Matthias C. Caro, Elies Gil-Fuster, Johannes Jakob Meyer, Jens Eisert e Ryan Sweke. "Limiti di generalizzazione dipendenti dalla codifica per circuiti quantistici parametrizzati". Quantico 5, 582 (2021).
https:/​/​doi.org/​10.22331/​q-2021-11-17-582

, Hsin-Yuan Huang, Michael Broughton, Masoud Mohseni, Ryan Babbush, Sergio Boixo, Hartmut Neven e Jarrod R McClean. “Il potere dei dati nell’apprendimento automatico quantistico”. Naz. Comune. 12, 2631 (2021).
https:/​/​doi.org/​10.1038/​s41467-021-22539-9

, Matthias C. Caro, Hsin-Yuan Huang, M. Cerezo, Kunal Sharma, Andrew Sornborger, Lukasz Cincio e Patrick J. Coles. "Generalizzazione nell'apprendimento automatico quantistico da pochi dati di addestramento". Naz. Comune. 13, 4919 (2022).
https:/​/​doi.org/​10.1038/​s41467-022-32550-3

, Leonardo Banchi, Jason Pereira, and Stefano Pirandola. "Generalizzazione nell'apprendimento automatico quantistico: un punto di vista dell'informazione quantistica". PRX Quantum 2, 040321 (2021).
https: / / doi.org/ 10.1103 / PRXQuantum.2.040321

, Francisco Javier Gil Vidal e Dirk Oliver Theis. "Ridondanza di input per circuiti quantistici parametrizzati". Davanti. Fis. 8, 297 (2020).
https: / / doi.org/ 10.3389 / fphy.2020.00297

, Maria Schuld, Ryan Sweke e Johannes Jakob Meyer. "Effetto della codifica dei dati sulla potenza espressiva dei modelli variazionali di apprendimento automatico quantistico". Fis. Rev. A 103, 032430 (2021).
https: / / doi.org/ 10.1103 / physreva.103.032430

, David Wierichs, Josh Izaac, Cody Wang e Cedric Yen-Yu Lin. "Regole generali di spostamento dei parametri per gradienti quantistici". Quantico 6, 677 (2022).
https:/​/​doi.org/​10.22331/​q-2022-03-30-677

, Kendall E Atkinson. “Un’introduzione all’analisi numerica”. John Wiley & Figli. (2008).

, Ali Rahimi e Benjamin Recht. "Caratteristiche casuali per macchine kernel su larga scala". Nei progressi nei sistemi di elaborazione delle informazioni neurali. Volume 20. (2007). url: https://​/​papers.nips.cc/​paper_files/​paper/​2007/​hash/​013a006f03dbc5392effeb8f18fda755-Abstract.html.
https:/​/​papers.nips.cc/​paper_files/​paper/​2007/​hash/​013a006f03dbc5392effeb8f18fda755-Abstract.html

, Walter Rudin. “I teoremi fondamentali dell’analisi di Fourier”. John Wiley & Figli, Ltd. (1990).
https: / / doi.org/ 10.1002 / 9781118165621.ch1

, Canzone Mei e Andrea Montanari. "L'errore di generalizzazione della regressione di caratteristiche casuali: asintotici precisi e doppia curva di discesa". Comune. Appl. puro Matematica. 75, 667–766 (2022).
https: / / doi.org/ 10.1002 / cpa.22008

, Trevor Hastie, Andrea Montanari, Saharon Rosset e Ryan J. Tibshirani. "Sorprese nell'interpolazione dei minimi quadrati senza creste ad alta dimensione". Anna. Statistica. 50, 949 – 986 (2022).
https: / / doi.org/ 10.1214 / 21-AOS2133

, Tengyuan Liang, Alexander Rakhlin e Xiyu Zhai. "Sulla discesa multipla degli interpolanti a norma minima e sull'isometria inferiore ristretta dei chicchi". In Atti di ricerca sull'apprendimento automatico. Volume 125, pagine 1–29. PMLR (2020). URL: http://​/​proceedings.mlr.press/​v125/​liang20a.html.
http://​/​proceedings.mlr.press/​v125/​liang20a.html

, Edward Farhi e Hartmut Neven. “Classificazione con reti neurali quantistiche su processori a breve termine” (2018). arXiv:1802.06002.
arXiv: 1802.06002

, Maria Schuld, Alex Bocharov, Krysta M. Svore e Nathan Wiebe. “Classificatori quantistici incentrati sul circuito”. Fis. Rev. A 101, 032308 (2020).
https: / / doi.org/ 10.1103 / physreva.101.032308

, Adrián Pérez-Salinas, Alba Cervera-Lierta, Elies Gil-Fuster e José I. Latorre. "Ricaricamento dei dati per un classificatore quantistico universale". Quantum 4, 226 (2020).
https:/​/​doi.org/​10.22331/​q-2020-02-06-226

, Sofiene Jerbi, Lukas J Fiderer, Hendrik Poulsen Nautrup, Jonas M Kübler, Hans J Briegel e Vedran Dunjko. “L’apprendimento automatico quantistico oltre i metodi del kernel”. Naz. Comune. 14, 517 (2023).
https: / / doi.org/ 10.1038 / s41467-023-36159-y

, Casper Gyurik, Dyon Vreumingen, van e Vedran Dunjko. "Minimizzazione del rischio strutturale per classificatori lineari quantistici". Quantico 7, 893 (2023).
https:/​/​doi.org/​10.22331/​q-2023-01-13-893

, Maria Schuld. "I modelli di apprendimento automatico quantistico supervisionato sono metodi del kernel" (2021). arXiv:2101.11020.
arXiv: 2101.11020

, S. Shin, YS Teo e H. Jeong. "Codifica esponenziale dei dati per l'apprendimento supervisionato quantistico". Fis. Rev. A 107, 012422 (2023).
https: / / doi.org/ 10.1103 / PhysRevA.107.012422

, Sophie Piccard. “Sur les ensembles de distances des ensembles de points d’un espace euclidien.”. Memorie dell'Università di Neuchâtel. Segreteria dell'Università. (1939).

, Dave Wecker, Matthew B. Hastings, Nathan Wiebe, Bryan K. Clark, Chetan Nayak e Matthias Troyer. "Risoluzione di modelli elettronici fortemente correlati su un computer quantistico". Fis. Rev. A 92, 062318 (2015).
https: / / doi.org/ 10.1103 / PhysRevA.92.062318

, Ian D. Kivlichan, Jarrod McClean, Nathan Wiebe, Craig Gidney, Alán Aspuru-Guzik, Garnet Kin-Lic Chan e Ryan Babbush. "Simulazione quantistica di struttura elettronica con profondità lineare e connettività". Fis. Rev. Lett. 120, 110501 (2018).
https: / / doi.org/ 10.1103 / PhysRevLett.120.110501

, Martín Larocca, Frédéric Sauvage, Faris M. Sbahi, Guillaume Verdon, Patrick J. Coles e M. Cerezo. “Apprendimento automatico quantistico invariante di gruppo”. PRX Quantum 3, 030341 (2022).
https: / / doi.org/ 10.1103 / PRXQuantum.3.030341

, Johannes Jakob Meyer, Marian Mularski, Elies Gil-Fuster, Antonio Anna Mele, Francesco Arzani, Alissa Wilms e Jens Eisert. "Sfruttare la simmetria nell'apprendimento automatico quantistico variazionale". PRX Quantum 4, 010328 (2023).
https: / / doi.org/ 10.1103 / PRXQuantum.4.010328

, Martin Larocca, Nathan Ju, Diego García-Martín, Patrick J Coles e Marco Cerezo. “Teoria della sovraparametrizzazione nelle reti neurali quantistiche”. Naz. Calcola. Sci. 3, 542–551 (2023).
https:/​/​doi.org/​10.1038/​s43588-023-00467-6

, Yuxuan Du, Min-Hsiu Hsieh, Tongliang Liu e Dacheng Tao. “Potenza espressiva dei circuiti quantistici parametrizzati”. Fis. Rev. Ris. 2, 033125 (2020).
https: / / doi.org/ 10.1103 / physrevresearch.2.033125

, Zoë Holmes, Kunal Sharma, M. Cerezo e Patrick J. Coles. "Collegare l'espressibilità ansatz alle grandezze del gradiente e agli altipiani aridi". PRX Quantum 3, 010313 (2022).
https: / / doi.org/ 10.1103 / PRXQuantum.3.010313

, Samson Wang, Enrico Fontana, Marco Cerezo, Kunal Sharma, Akira Sone, Lukasz Cincio e Patrick J Coles. "Altipiani aridi indotti dal rumore negli algoritmi quantistici variazionali". Naz. Comune. 12, 6961 (2021).
https:/​/​doi.org/​10.1038/​s41467-021-27045-6

, Abdulkadir Canatar, Evan Peters, Cengiz Pehlevan, Stefan M. Wild e Ruslan Shaydulin. "La larghezza di banda consente la generalizzazione nei modelli del kernel quantistico". Transazioni sulla ricerca sull'apprendimento automatico (2023). URL: https://​/​openreview.net/​forum?id=A1N2qp4yAq.
https://​/​openreview.net/​forum?id=A1N2qp4yAq

, Hsin-Yuan Huang, Michael Broughton, Jordan Cotler, Sitan Chen, Jerry Li, Masoud Mohseni, Hartmut Neven, Ryan Babbush, Richard Kueng, John Preskill e Jarrod R. McClean. “Vantaggio quantistico nell’imparare dagli esperimenti”. Scienza 376, 1182–1186 (2022).
https://​/​doi.org/​10.1126/​science.abn7293

, Sitan Chen, Jordan Cotler, Hsin-Yuan Huang e Jerry Li. “Separazioni esponenziali tra apprendimento con e senza memoria quantistica”. Nel 2021 si terrà il 62° Simposio annuale dell'IEEE sui fondamenti dell'informatica (FOCS). Pagine 574–585. (2022).
https://​/​doi.org/​10.1109/​FOCS52979.2021.00063

, Hsin-Yuan Huang, Richard Kueng e John Preskill. "Limiti teorici dell'informazione sul vantaggio quantistico nell'apprendimento automatico". Fis. Rev. Lett. 126, 190505 (2021).
https: / / doi.org/ 10.1103 / PhysRevLett.126.190505

, Ville Bergholm, Josh Izaac, Maria Schuld, Christian Gogolin, M. Sohaib Alam, Shahnawaz Ahmed, Juan Miguel Arrazola, Carsten Blank, Alain Delgado, Soran Jahangiri, Keri McKiernan, Johannes Jakob Meyer, Zeyue Niu, Antal Száva e Nathan Killoran. “Pennylane: Differenziazione automatica di calcoli ibridi quantistici-classici” (2018). arXiv:1811.04968.
arXiv: 1811.04968

, Peter L. Bartlett, Philip M. Long, Gábor Lugosi e Alexander Tsigler. "Sovradattamento benigno nella regressione lineare". Proc. Natl. Accade. Sci. 117, 30063–30070 (2020).
https: / / doi.org/ 10.1073 / pnas.1907378117

, Vladimir Koltchinskii e Karim Lounici. "Disuguaglianza di concentrazione e limiti di momento per operatori di covarianza campionari". Bernoulli 23, 110 – 133 (2017).
https://​/​doi.org/​10.3150/​15-BEJ730

, Zbigniew Puchała e Jarosław Adam Miszczak. “Integrazione simbolica rispetto alla misura haar sul gruppo unitario”. Toro. Pol. Accade. Sci. 65, 21–27 (2017).
https: / / doi.org/ 10.1515 / bpasts-2017-0003

, Daniel A. Roberts e Beni Yoshida. “Caos e complessità nel design”. J. Fisica delle alte energie. 2017, 121 (2017).
https://​/​doi.org/​10.1007/​jhep04(2017)121

, Wallace C. Babcock. "Interferenza di intermodulazione nella frequenza di insorgenza e controllo dei sistemi radio mediante selezione del canale". Sistema campana tecnologia. J. 32, 63–73 (1953).
https: / / doi.org/ 10.1002 / j.1538-7305.1953.tb01422.x

, M. Atkinson, N. Santoro e J. Urrutia. "Insiemi di interi con somme e differenze distinte e assegnazioni di frequenza portante per ripetitori non lineari". IEEE Trans. Comune. 34, 614–617 (1986).
https://​/​doi.org/​10.1109/​TCOM.1986.1096587

, J. Robinson e A. Bernstein. “Una classe di codici binari ricorrenti con propagazione degli errori limitata”. IEEE Trans. Inf. 13, 106–113 (1967).
https: / / doi.org/ 10.1109 / TIT.1967.1053951

, RJF Fang e WA Sandrin. "Assegnazione della frequenza portante per ripetitori non lineari". COMSAT Revisione tecnica 7, 227–245 (1977).

Citato da

[1] Alexey Melnikov, Mohammad Kordzanganeh, Alexander Alodjants e Ray-Kuang Lee, "Apprendimento automatico quantistico: dalla fisica all'ingegneria del software", Progressi nella fisica X 8 1, 2165452 (2023).

[2] Mo Kordzanganeh, Pavel Sekatski, Leonid Fedichkin e Alexey Melnikov, "Una famiglia in crescita esponenziale di circuiti quantistici universali", Apprendimento automatico: scienza e tecnologia 4 3, 035036 (2023).

[3] Stefano Mangini, “Algoritmi quantistici variazionali per l’apprendimento automatico: teoria e applicazioni”, arXiv: 2306.09984, (2023).

[4] Ben Jaderberg, Antonio A. Gentile, Youssef Achari Berrada, Elvira Shishenina e Vincent E. Elfving, "Lasciate che le reti neurali quantistiche scelgano le proprie frequenze", arXiv: 2309.03279, (2023).

[5] Yuxuan Du, Yibo Yang, Dacheng Tao e Min-Hsiu Hsieh, "Potere dipendente dal problema delle reti neurali quantistiche sulla classificazione multiclasse", Lettere di revisione fisica 131 14, 140601 (2023).

[6] S. Shin, YS Teo e H. Jeong, "Codifica esponenziale dei dati per l'apprendimento supervisionato quantistico", Revisione fisica A 107 1, 012422 (2023).

[7] Elies Gil-Fuster, Jens Eisert e Carlos Bravo-Prieto, "Comprendere l'apprendimento automatico quantistico richiede anche un ripensamento della generalizzazione", arXiv: 2306.13461, (2023).

[8] Jason Iaconis e Sonika Johri, "Caricamento efficiente di dati quantistici basato su rete di tensori", arXiv: 2310.05897, (2023).

[9] Alice Barthe e Adrián Pérez-Salinas, "Gradienti e profili di frequenza dei modelli di ricaricamento quantistico", arXiv: 2311.10822, (2023).

[10] Tobias Haug e MS Kim, "Generalizzazione con la geometria quantistica per l'apprendimento unitario", arXiv: 2303.13462, (2023).

[11] Jonas Landman, Slimane Thabet, Constantin Dalyac, Hela Mhiri e Elham Kashefi, "Approssimazione classica dell'apprendimento automatico quantistico variazionale con caratteristiche casuali di Fourier", arXiv: 2210.13200, (2022).

[12] Berta Casas e Alba Cervera-Lierta, “Serie multidimensionali di Fourier con circuiti quantistici”, Revisione fisica A 107 6, 062612 (2023).

[13] Elies Gil-Fuster, Jens Eisert e Vedran Dunjko, "Sull'espressività dell'inclusione dei nuclei quantistici", arXiv: 2309.14419, (2023).

[14] Lucas Slattery, Ruslan Shaydulin, Shouvanik Chakrabarti, Marco Pistoia, Sami Khairy e Stefan M. Wild, "Evidenza numerica contro il vantaggio con nuclei di fedeltà quantistica su dati classici", Revisione fisica A 107 6, 062417 (2023).

[15] Mo Kordzanganeh, Daria Kosichkina e Alexey Melnikov, "Reti ibride parallele: un'interazione tra reti neurali quantistiche e classiche", arXiv: 2303.03227, (2023).

[16] Aikaterini, Gratsea e Patrick Huembeli, "L'effetto degli operatori di elaborazione e misurazione sul potere espressivo dei modelli quantistici", arXiv: 2211.03101, (2022).

[17] Shun Okumura e Masayuki Ohzeki, "Coefficiente di Fourier di circuiti quantistici parametrizzati e problema del plateau sterile", arXiv: 2309.06740, (2023).

[18] Massimiliano Incudini, Michele Grossi, Antonio Mandarino, Sofia Vallecorsa, Alessandra Di Pierro e David Windridge, "Il kernel del percorso quantistico: un kernel tangente neurale quantistico generalizzato per l'apprendimento automatico quantistico profondo", arXiv: 2212.11826, (2022).

[19] Jorja J. Kirk, Matthew D. Jackson, Daniel JM King, Philip Intallura e Mekena Metcalf, "Ordine emergente nelle rappresentazioni dei dati classici sui modelli di spin di Ising", arXiv: 2303.01461, (2023).

[20] Francesco Scala, Andrea Ceschini, Massimo Panella e Dario Gerace, “Un approccio generale al dropout nelle reti neurali quantistiche”, arXiv: 2310.04120, (2023).

[21] Julian Berberich, Daniel Fink, Daniel Pranjić, Christian Tutschku e Christian Holm, "Formazione di modelli quantistici robusti e generalizzabili", arXiv: 2311.11871, (2023).

Le citazioni sopra sono di ANNUNCI SAO / NASA (ultimo aggiornamento riuscito 2023-12-20 12:34:19). L'elenco potrebbe essere incompleto poiché non tutti gli editori forniscono dati di citazione adeguati e completi.

Impossibile recuperare Crossref citato da dati durante l'ultimo tentativo 2023-12-20 12:34:18: Impossibile recuperare i dati citati per 10.22331 / q-2023-12-20-1210 da Crossref. Questo è normale se il DOI è stato registrato di recente.

spot_img

L'ultima intelligenza

spot_img

Parla con noi

Ciao! Come posso aiutarla?