Blog
Blog
Artificial intelligence, machine learning and Big Data: let's go in order!
Posted on Apr 10, 2019
Machine learning means computer learning methods, without these being programmed for a given behavior.
Machine learning is therefore the basis of artificial intelligence, whose purpose is to imitate the functioning of the human brain in understanding and solving abstract problems through the so called “activation function”.
This last one is a mathematical function which determinates the output on the basis of the input.
it corresponds in biological terms to the logic with which the nucleus of the neuron present in the human brain works.
Artificial neurons, as well as biological ones, are not very expressive, therefore they must be interconnected on the basis of different algorithms according to the purpose.
The basic assumption of machine learning strategies is that computers are created without knowing how to do anything, just as children need to obtain experience to learn how to move in the world.
As children do, computers can also learn to manage large amounts of data and rearrange them in such a way as to predict what the effect of a certain action will be. This is why when we talk about artificial intelligence we also talk about “predictive algorithms”.
The definition of “machines capable of learning” is now old, even dating back to Alan Turing (1912-1954), who was convinced that they would be created by the year 2000.
Since the ultimate goal of machine learning is to plan strategies, the complexity of processing must be managed through a flow of data capable of manipulating a large number of variables without excessive resources being spent in computational terms (even time is a resource).
With Big Data are identified the algorithms dealing with this management.
It is a mistake to associate Big Data with “large amounts of data” as it would be reductive.
It is not just a huge flow of data that arrives somewhere and is used for a purpose, but real frameworks of mathematical algorithms in which the data are enclosed within the “5V” criterion (Volume, Velocity , Variety, Variability and Value).
Learning can take place by creating a database of information that can be accessed by the machine. In this way the computer taps into on examples of “experiences” up to identify some data that can help it develop hypotheses. In the simplest case the information is coded, that is related to examples of use, and therefore in a certain sense the deductions of the machine are facilitated and controlled (learning with supervision).
In more complex cases, computers are equipped with instrumentations (eg sensors or GPS) which allows them to access a whole series of environmental data, which vary quickly for definition.
One of the most difficult tasks for a computer that tries to solve problems similar to this, that occur every day to the human brain is represented for example by facial recognition.
* * * * * * * * * *
Con machine learning s’intendono metodi di apprendimento automatico da parte di computer, senza che questi siano programmati per un dato comportamento.
Il machine learning è quindi alla base dell’intelligenza artificiale, il cui scopo è quello di imitare il funzionamento del cervello umano nella comprensione e risoluzione di problemi astratti attraverso quella che viene chiamata activation function.
Quest’ultima è una funzione matematica che in base all’input determina quale sarà l’output.
Corrisponde in termini biologici alla logica con cui lavora il nucleo del neurone presente nel cervello umano.
I neuroni artificiali, così come quelli biologici, non hanno una grande capacità espressiva, devono quindi essere interconnessi tra loro in base ad algoritmi differenti a seconda dello scopo.
L’assunto alla base delle strategie di machine learning è che i computer vengono creati senza saper fare nulla, così come i bambini necessitano di fare esperienza per imparare a muoversi nel mondo.
Come appunto fanno i bambini anche i computer possono imparare a gestire grandi moli di dati e riordinarle in maniera tale da predire quale sarà l’effetto di una certa azione.
È per questo che quando si parla di intelligenza artificiale si parla anche di “algoritmi predittivi”.
La definizione di “macchine in grado di apprendere” ormai è vecchia, risale addirittura ad Alan Turing (1912-1954), che si disse convinto che sarebbero state create entro l’anno 2000.
Dato che lo scopo ultimo del machine learning è quello di pianificare strategie, la complessità di elaborazione deve essere gestita attraverso un flusso di dati in grado di manipolare un gran numero di variabili senza che vengano spese eccessive risorse in termini computazionali (anche il tempo è una risorsa). Con Big Data sono identificati gli algoritmi che si occupano di questa gestione.
E’ un errore quindi tradurre Big Data con “grande mole di dati” in quanto sarebbe riduttivo.
Non si tratta solo di un enorme flusso di dati che arriva da qualche parte e viene usato per un fine, ma di veri e propri framework di algoritmi matematici in cui i dati sono racchiusi all’interno del criterio delle “5V” (volume, velocità, varietà, variabilità e veridicità).
L’apprendimento può avvenire creando un database di informazioni interrogabile dalla macchina. In questo modo il computer attinge ad esempi di “esperienze” fino a identificarne alcune i cui dati possano aiutarlo ad elaborare ipotesi. Nel caso più semplice le informazioni sono codificate, cioè correlate ad esempi di utilizzo, e quindi in un certo senso le deduzioni della macchina sono facilitate e pilotate (apprendimento con supervisione).
Nel caso più complesso invece il computer è dotato di strumentazione (es. sensori o GPS) che gli permette di accedere a tutta una serie di dati ambientali, che per definizione variano velocemente.
Uno dei compiti più difficili per un computer che tenta di risolvere problematiche simili a quelle che si presentano ogni giorno al cervello umano è rappresentato ad esempio dal riconoscimento facciale.