Unpopular opinion: qualsiasi cosa dite su ciò che l'AI NON può fare invecchierà malissimo tra qualche anno

Leggo spesso in giro, ad esempio su r/ItaliaCareerAdvice (da cui mi hanno bannato per aver pubblicato un articolo sui benchmark raggiunti da ChatGPT-o3 in ragionamento matematico), di persone che tendono a ridimensionare l'impatto che l'AI può avere sul lavoro.

Ad esempio, in ambito tecnico/informatico, si sostiene che, per quanto possa aiutare e automatizzare processi ripetitivi, non sia in grado di risolvere problemi più complessi, che spesso fornisca risposte inesatte e generiche e che non si applichi in modo coerente al contesto richiesto.

Onestamente, queste considerazioni mi fanno abbastanza sorridere.

Primo, perché, essendo io programmatore, mi rendo spesso conto di quanto la qualità "scarsa" delle risposte dipenda dalla "scarsa" contestualizzazione del prompt relativo al problema posto: più si fornisce una visione ampia e dettagliata del problema, più l'AI è in grado di contestualizzare e offrire una risposta precisa e pertinente.

Secondo, mi sembra che sottolineare i limiti attuali sia abbastanza riduttivo, considerando che questi modelli sono sul mercato da poco più di due anni e non potranno che migliorare, dati gli enormi investimenti e la nuova guerra fredda appena iniziata tra Stati Uniti e Cina dopo il caso DeepSeek.

Terzo, bisogna accettare il fatto che non saremo mai intelligenti (in senso matematico-computazionale, ma anche linguistico) quanto l'AI del futuro. Basta confrontare le capacità attuali (che, ripeto, non sono perfette e sbagliano spesso) con quelle dei modelli di due anni fa: cosa pensate che saranno in grado di fare tra 10-15 anni?

Ovviamente, tralascio i discorsi sull'impatto sociale, che rappresentano un capitolo enorme e probabilmente il più preoccupante di tutti.

Voi cosa ne pensate?