Alan Turing, un matematico inglese che ha svolto un ruolo chiave come codificatore durante la seconda guerra mondiale, è talvolta chiamato il padre della programmazione informatica. È famoso per aver proposto un test per l'intelligenza informatica basato su un gioco di società in cui un interrogante cercava di dedurre il genere di due persone dietro una tenda. Il gioco di società era semplice: domande e risposte scritte venivano passate avanti e indietro in modo che il tono e il tono della voce non tradissero le persone dietro il sipario. Il test proposto da Turing commuta una delle persone nascoste per un computer. Il gioco è capire quale tenda nasconde un essere umano e quale nasconda l'intelligenza artificiale.
Ora lo chiamiamo Turing Test, ed è generalmente riprodotto su un computer attraverso una conversazione con un chatbot. L'estate scorsa, un programma che emula la personalità di un ragazzo ucraino di 13 anni, "Eugene Goostman", ha convinto il 33 percento dei giudici che fosse umano, riferisce Dan Falk per Smithsonian .
Turing predisse ottimisticamente che entro il 2000 un programma per computer avrebbe ingannato i giudici il 30 percento delle volte. Ma ancora, la maggior parte dei chatbot fa fatica a "sembrare" veramente umani. L'impresa di quest'anno è stata accolta con critiche, perché Eugene può nascondere la sua natura dietro gli errori che un adolescente che non parla un inglese perfetto potrebbe fare. Falk scrive:
In una delle mie conversazioni del 2012, ho digitato una semplice battuta - e l'entità con cui stavo conversando ha cambiato immediatamente argomento in hamburger. (Lo scienziato informatico Scott Aaronson ha avuto di recente un'esperienza simile quando ha chattato con Eugene tramite il sito web del bot. Aaronson ha chiesto a Eugene quante zampe ha un cammello; ha risposto: "Qualcosa tra 2 e 4. Forse, tre? :-)))" Più tardi, quando Aaronson chiese quante zampe avesse una formica, Eugene tossì la stessa identica risposta, tripla emoticon e tutto il resto.)
Se le persone possono essere ingannate da un computer che sputa sciocchezze - non esattamente un segno di intelligenza - allora probabilmente dovremmo trovare un modo migliore per testare l'AI Inserisci il test Lovelace, chiamato per Ada Lovelace, il primo programmatore di computer.
Lovelace scrisse nel 1843 che i computer non possono essere considerati intelligenti fino a quando non riescono a creare qualcosa di originale, qualcosa che non erano programmati per fare, riferisce Jordan Pearson per Motherboard. Il test Lovelace è stato proposto per la prima volta nel 2001, ma Mark Riedl, un ricercatore di intelligenza artificiale, spiega che neanche questo test, come originariamente concepito, è perfetto. "Non sono sicuro che il test funzioni davvero perché è molto improbabile che il programmatore non sia riuscito a capire come la loro IA abbia creato qualcosa", ha detto a New Scientist .
Il suo aggiornamento, il test Lovelace 2.0, avrebbe semplicemente chiesto al computer di creare qualcosa di originale e creativo: una storia, una poesia o un'immagine. Lui scrive:
Se il giudice è soddisfatto del risultato, fanno un'altra richiesta, più difficile. Questo continua fino a quando non si ritiene che l'IA abbia fallito un compito, o il giudice è soddisfatto di aver dimostrato un'intelligenza sufficiente. I round multipli significano che ottieni un punteggio invece di un passaggio o un fallimento. E possiamo registrare le varie richieste di un giudice in modo che possano essere testate su molti diversi IA
Il test serve più come strumento di confronto tra i sistemi di intelligenza artificiale, afferma il New Scientist . Ma almeno sembra che non possa essere ostacolato da trucchi come può fare il Test di Turing. Vale anche la pena notare: l'estetica della creazione non ha importanza. Dopotutto, non tutti gli esseri umani viventi e respiranti possono dipingere capolavori. Ma la maggior parte può giocare a Pictionary, sottolinea Riedl.