Ufficiale Scienza - "Yeah, Mr White, yeah, Science!!!"

  • Autore discussione Autore discussione Dalfi
  • Data d'inizio Data d'inizio
ufficiale
Pubblicità
Vorrei troppo vedere un viaggio spaziale fuori dal nostro sistema //content.invisioncic.com/a283374/emoticons/tristenev.png Spero ci riescano prima o poi //content.invisioncic.com/a283374/emoticons/tristenev.png Ho letto che stanno inventando robot sempre più simili agli uomini in grado di muoversi perfettamente, marchingegni per trasferire direttamente la conoscenza al cervello e tante altre cose utopistiche ... quindi spero che si trovi una soluzione pure per i viaggi spaziali //content.invisioncic.com/a283374/emoticons/250978_ahsisi.gif

 
5 minuti al lancio. Tutto sembra tranquillo, ma le barche sono sempre un pericolo //content.invisioncic.com/a283374/emoticons/paura.gif//content.invisioncic.com/a283374/emoticons/rJjoqET.gif

EDIT: Partito :hype::superhype::ivan:

 
Ultima modifica da un moderatore:
Dal podcast mi sembra sia partito

Secondo stadio in funzione oltre 130.000 metri di altezza e 10.000 kmh , è nello spazio ma non ancora in orbita

 
Ultima modifica da un moderatore:
Perso il segnale della parte che doveva atterrare sulla piattaforma //content.invisioncic.com/a283374/emoticons/emoticons_dent1005.gif

 
Raggiunta la quota operativa 167.000 metri ma non la velocità orbitale,

secondo motore spento, velocità quasi orbitale, 27.000 kmh primo stadio raggiunge l'area di recupero, adesso devono riaccendere i motori per spingere il satellite in un'orbita più alta, geostazionaria oltre 360 km di quota

Non so se essere contento comunque questo razzo è in diretta concorrenza con il nostro Vega che come sapete è un progetto Italiano finanziato per il 67% dall'ASI

https://it.wikipedia.org/wiki/Vega_(lanciatore)

 
Ultima modifica da un moderatore:
Satellite SES-9 in orbita geostazionaria, missione riuscita //content.invisioncic.com/a283374/emoticons/sisi.gif

Chissà la "first stage" che fine ha fatto //content.invisioncic.com/a283374/emoticons/emoticons_dent1005.gif

 
Ultima modifica da un moderatore:
Elon Musk ha fatto sapere che l'atterraggio del primo stadio è stato troppo brusco ed è fallito //content.invisioncic.com/a283374/emoticons/sad.png

In giornata saranno pubblicati foto e video

 
Atterraggio del Falcon 9 perfettamente riuscito durante il lancio di dicembre


 
Stanotte, l'IA di Google, DeepMind, ha sfidato e sconfitto a Go (tra i giochi da tavola più complessi al mondo) Lee Sedol, uno dei giocatori più forti in circolazione. //content.invisioncic.com/a283374/emoticons/Predicatore.gif

Verrano giocate ancora quattro partite tra l'IA e Sedol in questi giorni, ma già l'aver portato AlphaGo (questo il nome del software) a vincere ache UNA SOLA partita contro un top mondiale di Go è un traguardo che altri esperti del settore non si aspettavano potesse essere raggiunto se non tra una decina di anni. //content.invisioncic.com/a283374/emoticons/Predicatore.gif

Per chi è interessato l'articolo della BBC al riguardo è questo, per quelli ancora più interessati il video della partita giocata stanotte è


 
E' un gioco matematico mi pare, comunque la differenza fra la vera intelligenza ed una IA è l'imprevisto, se gli metti un cavallo fra i pezzi , un uomo direbbe che non è un pezzo corretto o addirittura lo userebbe come pezzo del gioco immaginandolo piatto, una macchina si bloccherebbe se non avesse istruzioni preprogrammate a quello scopo, non saprebbe cosa fare

 
Ultima modifica da un moderatore:
qualche tempo fa ho letto un romanzo in salsa futuristica e in questo romanzo spiegavano che ci fosse una sorta di "tranello" o trucco che al momento rende una IA facilmente "scopribile" o comunque non all'altezza di una mente elastica come quella umana(se non ricordo male è una sorta di "paradosso di..." o qualcosa del genere); in sostanza si diceva che ponendo una serie di domande ad una IA programmata questa prima o poi si sarebbe ripetuta,o avrebbe risposto in modo diciamo "standard" rivelando quindi la sua identità di costrutto,al contrario di un essere umano che è dotato di fantasia e imprevedibilità

edit: ok mi è venuto in mente, il "test di Turing"

 
Ultima modifica da un moderatore:
E' un gioco matematico mi pare, comunque la differenza fra la vera intelligenza ed una IA è l'imprevisto, se gli metti un cavallo fra i pezzi , un uomo direbbe che non è un pezzo corretto o addirittura lo userebbe come pezzo del gioco immaginandolo piatto, una macchina si bloccherebbe se non avesse istruzioni preprogrammate a quello scopo, non saprebbe cosa fare
No ma infatti se tu facessi giocare AlphaGo a briscola con un bambino di 5 anni l'IA manco saprebbe che forma hanno le carte. Prima di arrivare ad una IA che riesce a replicare l'intelligenza umana, o addirittura superarla, ci vorrano decenni. Ma nonostante questo il traguardo di AlphaGo che, attraverso il self learning, è riuscito ad arrivare al livello del miglior giocatore umano in meno di 2 anni, è ammirevole. //content.invisioncic.com/a283374/emoticons/250978_ahsisi.gif

Per Wrex, non sono sicuro ma mi pare di aver letto che il test di Turing si sarebbe rivelato obsoleto a determinare la vera intelligenza, addirittura alcuni semplici software, palesemente non intelligenti nel senso da noi intesi, l'avrebbero già superato e per questo si sarebbe pensato di formulare altri test. :morristend:

 
No ma infatti se tu facessi giocare AlphaGo a briscola con un bambino di 5 anni l'IA manco saprebbe che forma hanno le carte. Prima di arrivare ad una IA che riesce a replicare l'intelligenza umana, o addirittura superarla, ci vorrano decenni. Ma nonostante questo il traguardo di AlphaGo che, attraverso il self learning, è riuscito ad arrivare al livello del miglior giocatore umano in meno di 2 anni, è ammirevole. //content.invisioncic.com/a283374/emoticons/250978_ahsisi.gif
Per Wrex, non sono sicuro ma mi pare di aver letto che il test di Turing si sarebbe rivelato obsoleto a determinare la vera intelligenza, addirittura alcuni semplici software, palesemente non intelligenti nel senso da noi intesi, l'avrebbero già superato e per questo si sarebbe pensato di formulare altri test. :morristend:
be si immagino che sia così,difatti il libro non è recentissimo,è tipo degli inizi degli anni '80,quindi ci sta che sia una teoria superata. difatti ho letto sulla wiki che ora esiste un "test" più affidabile detto "della stanza cinese" che pare abbia soppiantato il test di Turing

 
Beh, stamattina ho letto di un articolo che spiegava che hanno appena usato un IA per creare degli esperimenti di meccanica quantistica. Insomma per dimostrare o arrivare a determinati risultati l'IA ha provato più di 50 possibili esperiemnti scegliendo poi quello più adatto e a detta dei tecnici quello scelto è decisamente inusuale seppur corretto.

Possibile segno che tra un po probabilmente ci dovremmo semplicemente accontentare dei risultati perchè non riusciremo a capire i passaggi intermedi.

Detto questo, che mi ha affascinato molto, penso che quando si tratta di una macchina progettata dall'uomo, come dite voi il problema è l'imprevedibilità.

Insomma anche volendo non si potrebbe creare una macchina che reagisse in maniera differente per ogni stimolo, dato che gli stimoli potrebbero essere infiniti. Quindi, oltre a non sapersi comportare con un cavallo al posto di una pedina, potrebbe essere limitata in tante altre cose.

Il problme nasce quando l'IA si auto evolve e impara. Ma siamo ben lontani da una cosa del genere.

 
Diciamo che il problema attualmente è che una IA è programmata dalla A alla Z e non può uscire dalla sua programmazione. Bene o male giochi di questo genere sono cose matematiche, facilmente programmabili alla fin fine e, volendo, a seguito di svariati tentativi, può arrivare alla sequenza di mosse che garantiscono una vittoria.

 


Il passo avanti è quando una IA inizia ad avere la capacità di apprendere cose al di fuori della sua programmazione. È li che si inizia a parlare di AGI


 


Poi si, se uno volesse immaginarsi l'apocalisse delle macchine, se a una AGI dai la possibilità di costruire una versione migliorata di se stessa, in breve tempo si raggiungerebbero intelligenze artificiali che sorpassano di molto l'intelligenza di un uomo, ed è li che la situazione potrebbe facilmente degenerare.


- - - Aggiornato - - -

Beh, stamattina ho letto di un articolo che spiegava che hanno appena usato un IA per creare degli esperimenti di meccanica quantistica. Insomma per dimostrare o arrivare a determinati risultati l'IA ha provato più di 50 possibili esperiemnti scegliendo poi quello più adatto e a detta dei tecnici quello scelto è decisamente inusuale seppur corretto.Possibile segno che tra un po probabilmente ci dovremmo semplicemente accontentare dei risultati perchè non riusciremo a capire i passaggi intermedi.

Detto questo, che mi ha affascinato molto, penso che quando si tratta di una macchina progettata dall'uomo, come dite voi il problema è l'imprevedibilità.

Insomma anche volendo non si potrebbe creare una macchina che reagisse in maniera differente per ogni stimolo, dato che gli stimoli potrebbero essere infiniti. Quindi, oltre a non sapersi comportare con un cavallo al posto di una pedina, potrebbe essere limitata in tante altre cose.

Il problme nasce quando l'IA si auto evolve e impara. Ma siamo ben lontani da una cosa del genere.

Non so... Lessi tempo fa che erano riusciti a creare una AGI con l'intelligenza di un moscerino o poco più, quindi non è che siamo tanto lontani da macchine in grado di apprendere. Semplicemente siamo lontani da macchine che hanno l'intelligenza di capire i loro difetti e creare copie migliorate di loro stesse. Però, c'è da dirlo, se arrivassimo a questo livello sarebbe affascinante osservare i processi iterativi a cui andrebbe incontro una macchina per migliorare se stessa di volta in volta. Ci sarebbe da capire da quale momento smetterebbe di aver bisogno di noi per fornirgli i mezzi per evolversi


 
Ultima modifica da un moderatore:
Prima di arrivare ad una IA che riesce a replicare l'intelligenza umana, o addirittura superarla,
Questo è impossibile, la IA per sua natura funziona tramite un software che non può in ogni caso andare oltre l'intelligenza di chi lo ha programmato, costui infatti non può inserire nel programma più di quanto egli stesso possiede.

Altro discorso è invece migliorarsi imparando ovvero comparando la situazione con esperienze precedenti

 
Si potrebbe terraformare e colonizzare Marte , tu intendi esopianeti ovviamente
Marte non si può terraformare, manca un luna stabilizzatrice, l'inclinazione dell'asse marziano ha oscillazioni estreme.

 
Pubblicità
Pubblicità
Indietro
Top