Connect with us
https://ainews.site/wp-content/uploads/2021/11/zox-leader.png

Published

on

The Ultimate Managed Hosting Platform

Stack è una sorta di lineare struttura dati che consente l’archiviazione e l’ingresso di conoscenze rispettose dell’ambiente. Poiché il significato letterale di stack significa, questa costruzione della conoscenza si basa sulla logica di memorizzare i componenti uno sopra l’altro. Ci sono molti esempi del mondo reale della pila della nostra vita quotidiana, corrispondenti a una pila di piatti, una pila di appunti, una pila di indumenti e molti altri. Come ogni altro linguaggio di programmazione rispettoso dell’ambiente, Python consente inoltre un’implementazione pulita dello stack e numerose diverse costruzioni di conoscenza. Immediatamente, in questo articolo, studieremo lo stack Python e come implementarlo.

Cos’è Stack in Python?

Stack è una costruzione di conoscenza lineare che funziona secondo il precetto di “Final In First Out (LIFO). Ciò significa che il componente che entra per primo nello stack esce finale. Il periodo di tempo che utilizziamo per inviare il meteo a uno stack è chiamato “Push”, mentre il periodo di tempo per eliminare il meteo da uno stack è chiamato “Pop”. Pertanto, diremo che poiché uno stack ha solo un traguardo aperto, push e popping non possono avvenire contemporaneamente. Di seguito è stata mostrata un’illustrazione grafica dell’operazione PUSH e POP all’interno dello stack:

Illustrazione pittorica di stack, push e pop

Il tipo di dati integrato di Python che utilizziamo per implementare Python è la checklist di Python. Inoltre, per esercitare operazioni PUSH e POP su uno stack, utilizziamo append() e pop() perform della checklist Python.

Get your arms on the Python Stack course and study extra about it.

Strategie di Stack

Probabilmente le strategie più fondamentali relative a uno Stack in Python sono le seguenti:

  • spingere(n)– Questa può essere una metodologia di stack definita dall’utente utilizzata per inserire un componente nello stack. Il componente da spingere viene consegnato nella sua argomentazione.
  • pop()– Vogliamo che questa metodologia tolga il componente più in alto dallo stack.
  • è vuoto()– Vogliamo che questa metodologia verifichi se lo stack è vuoto o meno.
  • dimensione()– Vogliamo che questa metodologia ottenga la scala dello stack.
  • primo ()– Questa metodologia di impilamento può essere utilizzata per restituire il riferimento al componente più in alto o all’ultimo componente inserito in uno stack.

Funzionalità relative a Python Stack

Ci sono un sacco di funzioni utili in Python che ci aiutano a prenderci cura di uno stack in modo efficace. Diamo una breve occhiata a queste caratteristiche –

  • len()– Questa metodologia dello stack viene utilizzata per restituire la scala dello stack. Questa esecuzione può essere utilizzata all’interno della definizione della metodologia isempty() in uno stack Python.
  • append(n)– Questa esecuzione Python viene utilizzata per inserire un componente nello stack. Il componente da spingere viene consegnato nella sua argomentazione.
  • pop()– Questa metodologia, correlata agli elenchi Python, viene utilizzata per eliminare il componente più in alto dallo stack.

Implementazione di Stack

Esistono 4 metodi con cui eseguiremo l’implementazione di uno stack in Python-

  • lista di controllo
  • collezioni.deque
  • coda.LifoQueue
  • Lista di controllo a collegamento singolo

Di questi tre, l’approccio più semplice e preferito per implementare uno stack in Python è la checklist. Vediamo l’implementazione di uno stack in Python utilizzando le liste.

Implementazione utilizzando il record

# Stack Creation
def create_stack():
    stack = checklist()            #declaring an empty checklist
    return stack


# Checking for empty stack
def Isempty(stack):
    return len(stack) == 0


# Inserting gadgets into the stack
def push(stack, n):
    stack.append(n)
    print("pushed merchandise: " + n)


# Elimination of a component from the stack
def pop(stack):
    if (Isempty(stack)):
        return "stack is empty"
    else:
        return stack.pop()

# Displaying the stack components
def present(stack):
    print("The stack components are:")
    for i in stack:
        print(i)
        
stack = create_stack()
push(stack, str(10))
push(stack, str(20))
push(stack, str(30))
push(stack, str(40))
print("popped merchandise: " + pop(stack))
present(stack)

Produzione:

Tuttavia, il soggetto del ritmo si trasforma in una limitazione significativa proprio qui quando si affronta uno stack in aumento. I gadget in un elenco vengono salvati uno dopo l’opposto contenuto nella reminiscenza. Pertanto, se lo stack cresce più del blocco di reminiscenza assegnato alla checklist, Python deve eseguire alcune nuove allocazioni di reminiscenza, portando ad alcuni append() che impiegano molto più tempo del resto durante la chiamata.

Implementazione utilizzando collections.deque

Useremo inoltre la classe deque del modulo delle raccolte Python per implementare uno stack. Poiché una coda deque o double-ended ci consente di inserire ed eliminare componenti da ogni ingresso e lato posteriore, è forse più appropriato a volte quando richiediamo prima operazioni append() e pop().

from collections import deque  

def create_stack():  
    stack = deque()    #Creating empty deque
    return stack 
  
# PUSH operation utilizing append()
def push(stack, merchandise):
    stack.append(merchandise)

  
#POP operation
def pop(stack):
    if(stack):
        print('Component popped from stack:')
        print(stack.pop())
    else:
        print('Stack is empty')
    

#Displaying Stack
def present(stack):
    print('Stack components are:')
    print(stack)
    
new_stack=create_stack()
push(new_stack,25)
push(new_stack,56)
push(new_stack,32)
present(new_stack)

pop(new_stack)
present(new_stack)

Produzione:

Implementazione utilizzando queue.LifoQueue

Il modulo coda di Python è costituito da una coda LIFO. Una coda LIFO non è altro che uno stack. Pertanto, implementeremo semplicemente e con successo uno stack in Python utilizzando il modulo coda. Per un LifoQueue, abbiamo alcune funzionalità che possono essere utili nell’implementazione dello stack, corrispondenti a qsize(), full(), empty(), put(n), get() come visto nel seguente pezzo di codice. Il parametro della dimensione massima di LifoQueue definisce il limite delle cose che lo stack può mantenere.

from queue import LifoQueue
  
# Initializing a stack
def new():
    stack = LifoQueue(maxsize=3)   #Fixing the stack dimension
    return stack

#PUSH utilizing put(n) 
def push(stack, merchandise):
    if(stack.full()):                      #Checking if the stack is full
        print("The stack is already full")
    else:
        stack.put(merchandise)
        print("Dimension: ", stack.qsize())     #Figuring out the stack dimension

#POP utilizing get()
def pop(stack):
    if(stack.empty()):              #Checking if the stack is empty
        print("Stack is empty")
    else:
        print('Component popped from the stack is ', stack.get())         #Eradicating the final component from stack
        print("Dimension: ", stack.qsize())

stack=new()
pop(stack)
push(stack,32)
push(stack,56)
push(stack,27)
pop(stack)

Produzione:

Implementazione utilizzando una checklist collegata singolarmente

Gli elenchi con collegamenti singoli sono probabilmente l’approccio più rispettoso dell’ambiente ed efficiente per l’implementazione di stack dinamici. Usiamo il metodo di categoria e oggetto di Python OOP per creare elenchi collegati in Python. Ora abbiamo alcune funzionalità a nostra disposizione in Python che possono essere utili nell’implementazione dello stack, corrispondenti a getSize(), isEmpty(), push(n) e pop(). Diamo un’occhiata a come ognuna di queste funzionalità aiuta nell’implementazione di uno stack.

#Node creation
class Node:
	def __init__(self, worth):
		self.worth = worth
		self.subsequent = None

#Stack creation
class Stack:
    #Stack with dummy node
	def __init__(self):
		self.head = Node("head")
		self.dimension = 0

	#  For string illustration of the stack
	def __str__(self):
		val = self.head.subsequent
		present = ""
		whereas val:
			present += str(val.worth) + " , "
			val = val.subsequent
		return present[:-3]

	# Retrieve the scale of the stack
	def getSize(self):
		return self.dimension

	# Verify if the stack is empty
	def isEmpty(self):
		return self.dimension == 0

	# Retrieve the highest merchandise of the stack
	def peek(self):
		# Verify for empty stack.
		if self.isEmpty():
			elevate Exception("That is an empty stack")
		return self.head.subsequent.worth

	# Push operation
	def push(self, worth):
		node = Node(worth)
		node.subsequent = self.head.subsequent
		self.head.subsequent = node
		self.dimension += 1

	# Pop Operation
	def pop(self):
		if self.isEmpty():
			elevate Exception("Stack is empty")
		take away = self.head.subsequent
		self.head.subsequent = self.head.subsequent.subsequent
		self.dimension -= 1
		return take away.worth


#Driver Code
if __name__ == "__main__":
	stack = Stack()
	n=20
	for i in vary(1, 11):
		stack.push(n)
		n+=5
	print(f"Stack:{stack}")

	for i  in vary(1, 6):
		take away = stack.pop()
		print(f"Pop: {take away}")
	print(f"Stack: {stack}")

Produzione:

Deque vs. Disco

Deque Disco
È consigliabile importare il modulo delle raccolte per l’utilizzo di deque in Python Non è necessario importare alcun modulo esterno per utilizzare un elenco in Python. È una costruzione di dati incorporati
La complessità temporale di deque per le funzioni append() e pop() è O(1) La complessità temporale degli elenchi per le funzioni append() e pop() è O(n)
Sono a doppia estremità, ovvero i componenti potrebbero essere inseriti e lontani da entrambe le estremità È una costruzione single-ended che abilita append() per inserire il componente alla fine della checklist e pop() per togliere il componente finale dalla checklist
Stack con dimensioni maggiori potrebbe essere eseguito in modo semplice ed efficace tramite deques La checklist è appropriata per operazioni a lunghezza fissa e l’implementazione dello stack tramite liste diventa problematica quando la sua dimensione inizia a crescere.

Pile Python e Threading

Python è un linguaggio multi-thread, cioè permette una programmazione che implica il funzionamento in parallelo di un certo numero di componenti di un corso. Usiamo il threading in Python per gestire un numero di thread come eseguire chiamate e compiti contemporaneamente. Python elenca e deques ogni lavoro in un altro modo per un programma con thread. Non vorresti utilizzare elenchi per costruzioni di conoscenza a cui è necessario accedere da un numero di thread poiché non sono thread-safe.

Il tuo programma thread è sicuro con deques fintanto che stai utilizzando esclusivamente append() e pop(). A parte, anche se riuscissi a creare un programma di deque thread-safe, esporrebbe il tuo programma a possibilità di essere utilizzato in modo improprio e darebbe luogo a situazioni di gara in una data di interruzione successiva. Quindi, né l’elenco di controllo né un deque sono eccellenti da nominare quando si affronta un programma con thread. Il modo più semplice per creare uno stack in un ambiente thread-safe è queue.LifoQueue. Siamo liberi di utilizzare le sue strategie in un ambiente intrecciato. Tuttavia, le tue operazioni di stack in queue.LifoQueue potrebbero richiedere un po’ più di tempo a causa della creazione di chiamate thread-safe.

Attenzione: il threading in Python non implica che thread completamente diversi vengano eseguiti su processori totalmente diversi. Se il 100% del tempo della CPU viene già consumato, i thread Python non saranno utili per creare prima il tuo programma. Sarai in grado di passare alla programmazione parallela in questi casi.

A quale implementazione di Stack si dovrebbe pensare?

Quando si affronta un programma senza thread, è meglio optare per un deque. Quando il tuo programma richiede un ambiente thread-safe, scegli LifoQueue fino a quando l’efficienza e la manutenzione del tuo programma non sono estremamente influenzate dal ritmo delle operazioni dello stack.

Ora, la lista di controllo è un po’ pericolosa poiché aumenterebbe i punti di riallocazione della reminiscenza. A parte questo, gli elenchi Python di solito non sono sicuri per gli ambienti multithreading. L’elenco di controllo e le interfacce di deque sono identiche, a parte i punti all’interno dell’elenco di controllo. Pertanto, una deque Python potrebbe essere vista come la più efficace per l’implementazione dello stack.

Conclusione

Ora che potresti essere arrivato alla punta di questo testo, dovresti aver acquisito una comprensione dello stack in Python. La metà più importante è riconoscere le condizioni in cui vale la pena implementare uno stack. Avrai scoperto numerosi metodi per implementare lo stack in Python, quindi riconosci che è importante conoscere le necessità del tuo programma per avere la possibilità di selezionare la scelta di implementazione dello stack più efficace.

Dovresti essere chiaro se stai scrivendo un programma multi-thread o meno. Gli elenchi Python di solito non sono thread-safe, e quindi preferiresti andare per deques in caso di ambienti multi-threading. Lo svantaggio delle operazioni di stack graduali potrebbe essere ignorato fintanto che l’efficienza del programma non diminuisce a causa di questi componenti.

Domande costantemente richieste

Cos’è uno stack Python?

Uno stack è un tipo di costruzione di conoscenza lineare in Python che consente l’archiviazione e il recupero di componenti all’interno del metodo LIFO (Final In First Out).

Sei in grado di creare uno stack in Python?

Certo, creeremo semplicemente uno stack in Python utilizzando liste, LifoQueues o deques. Per uno stack dinamico, puoi creare elenchi collegati singoli con la stessa efficacia in Python per quella materia.

Quando useresti uno stack in Python?

Pila di libri, una pila di scartoffie, una pila di piatti e molti altri., tutte le istanze di utilizzo della pila nel mondo reale. Utilizzerai uno stack in Python ogni volta che cerchi un metodo per vendere al dettaglio e inserire componenti in un metodo LIFO. Supponiamo che uno sviluppatore, impegnato in un editor di frasi nuovo di zecca, debba creare una funzione di annullamento nel punto in cui è necessario tornare indietro tanto quanto è necessario il primo movimento. Per un tale stato di cose, l’utilizzo di uno stack Python potrebbe essere la cosa migliore per archiviare le azioni dei clienti coinvolti nell’editor di frasi.

Che cos’è uno stack nell’istanza di Python?

Esempio: un file di studiosi che entrano in un corridoio per un seminario, il luogo in cui devono allontanarsi dal corridoio con un metodo LIFO.

Python è full-stack?

Certo, Python potrebbe essere utilizzato in modo molto efficace per la crescita dell’intero stack. Tuttavia, la crescita dello stack completo e lo stack sono due problemi del tutto. Per saperne di più sullo stack in Python, torna all’articolo di cui sopra.

Come faccio a sapere se uno stack Python è pieno?

Quando si implementa uno stack all’interno del tipo di elenchi o elenchi collegati, è necessario utilizzare scale() perform per verificare se lo stack ha raggiunto il limite massimo. Avrai la metodologia complete() in LifoQueue per verificare se lo stack è pieno o meno.



The Ultimate Managed Hosting Platform

Source link

Continue Reading

Ultime notizie

Come le auto a guida autonoma e le auto a guida umana potrebbero condividere la strada – Le ultime novità in materia di intelligenza artificiale | Robotica AI

Published

on

How self-driving cars and human-driven cars could share the road

The Ultimate Managed Hosting Platform

Punteggio di credito: autonomia mista Periodo di trasporto: resilienza e amministrazione autonoma della flotta.

Simile a quando Mannequin Ts viaggiava insieme a cavalli e passeggini, le auto autonome (AV) e le auto a guida umana (HV) a volte condivideranno l’autostrada. Suggerimenti su come gestire al meglio l’ascesa degli AV sono oggetto di una nuovissima copertura temporanea di Carnegie Mellon, Periodo di trasporto ad autonomia mista: resilienza e amministrazione autonoma della flotta.

Il dibattito continua su quando gli AV domineranno le nostre strade, tuttavia uno dei tanti autori di temporary, Carlee Joe-Wong, afferma che “non appena gli AV inizieranno a essere schierati, con ogni probabilità non ci saranno più. Quindi, potrebbe essere necessario iniziare a parlare di polizze assicurative ora, per rivederle completamente e renderle corrette quando arriveranno gli AV. “

Joe-Wong, un professore affiliato {di ingegneria elettrica} e laptop, e il gruppo di analisi si sono chiesti “cosa c’è di totalmente diverso quando si hanno AV all’interno della mietitrebbia rispetto a se si ha semplicemente HV? Ci siamo resi conto che una delle molte variazioni primarie tra AV e HV è che gli AV sono altruisti e gli HV sono egocentrici”.

Gli AV possono anticipare cosa accadrà e reindirizzare se stessi, ad esempio in occasione della costruzione di un’autostrada o di un incidente. Programmati per funzionare in sicurezza e osservare le linee guida, gli AV possono intraprendere azioni altruistiche che avvantaggiano auto diverse e mai semplicemente se stesse. Le persone di fretta non saranno così benefiche con il loro tempo.

Il valore della guida egocentrica diventa evidente durante l’analisi . Quando le automobili che si comportano in modo egocentrico si trasferiscono fuori e dentro un sistema di visitatori del sito, alla fine il sistema raggiungerà l’equilibrio, uno stato equilibrato, ma i visitatori del sito non fluiranno in modo così efficace perché potrebbe. Ad esempio, l’equilibrio potrebbe essere raggiunto quando i visitatori del sito ringhiano insieme da paraurti a paraurti. “In genere l’equilibrio è molto lontano dall’ottimo”, afferma Joe-Wong.

I ricercatori immaginano che l’altruismo possa aumentare il flusso dei visitatori del sito evitando equilibri non ottimali e che non tutte le persone debbano essere persone piacevoli per migliorare le occasioni di viaggio. Nelle simulazioni, gli stati altruistici entrano in gioco quando gli AV costituiscono dal 20% al 50% delle auto in autostrada. Il rapporto suggerisce metodi per premiare l’altruismo, insieme a esenzioni dai pedaggi, riduzioni dei parcheggi e molti altri.

Scoprire le migliori polizze assicurative funzionanti per le flotte AV è un’altra questione delineata nel rapporto. Gli AV hanno la capacità di funzionare in sincronia, ma il controllo centralizzato di centinaia di AV si tradurrà in punti di calcolo e ritardi di comunicazione. I ricercatori devono trovare una stabilità tra le polizze assicurative centralizzate e decentralizzate utilizzando lo studio del rinforzo, una metodologia di coaching che studia la macchina.

Gli ingegneri hanno pensato a come gli AV effettuano le selezioni. In che modo lo studio automatico aiuta in questo corso e quali tipi di selezioni hanno l’effetto più importante? In risposta a Joe-Wong, “Al di sotto di alcune situazioni, hai effettivamente bisogno del rinforzo che studia l’intelligenza, tuttavia in diverse situazioni, lo studio del rinforzo ti sta semplicemente dicendo di fare ciò che con ogni probabilità avresti fatto comunque”.

Il gruppo significa che gli operatori di flotte preparano le mode per gestire le flotte AV a livello nazionale. Se si verificano nuovi modelli di visitatori del sito, allora le mode sono aggiornate, in particolare per indirizzare le persone ad avvicinarsi dagli incidenti. Tuttavia, se i visitatori del sito fluiscono senza sosta, sono necessari meno aggiornamenti, il che riduce le comunicazioni tra gli AV in autostrada e gli AV che riportano nuovamente a un server centralizzato.

L’ultimo aspetto negativo che i ricercatori hanno esaminato è stato imparare a prendersene cura ed evitare gli errori a cascata che si verificano quando un errore in un sistema attiva una sequenza di occasioni che si traducono in un errore a livello di rete.

Lavorare in equilibrio ottimale, utilizzare e avere una percentuale migliore di AV collaborativi ridurrà la congestione. Tuttavia, per gestire i guasti a cascata, i ricercatori hanno preso in considerazione diverse modalità di trasporto presenti nelle reti cittadine. I ricercatori hanno aggiunto alle loro mode tecniche di autobus, metropolitana, ferrovia e bike sharing, e quindi sono stati in grado di presentare che se i passeggeri fossero stati adattati tra i vari modi di trasporto, ciò potrebbe massimizzare l’utilizzo dell’intera comunità e fermare dal sovraccarico e dal fallimento.

Basandosi principalmente sulle loro scoperte, il gruppo raccomanda che quando le aziende di pianificazione creano polizze assicurative per la ridistribuzione del flusso dei visitatori del sito per gli AV, pensano a imparare come incorporare una serie di tecniche di trasporto interdipendenti per mantenere le persone in trasferimento.

Entro il periodo di autonomia mista, gli AV altruistici possono fungere da coordinatori che mantengono il flusso dei visitatori del sito suscitando azioni costruttive dagli HV. Anche se ci vorrà del tempo prima che gli AV siano più numerosi delle auto a guida umana, tutti i conducenti scopriranno flussi di visitatori del sito migliorati con solo un adattamento parziale degli AV.


Algoritmi di traffico centralizzati per aiutare i conducenti a evitare la congestione


Informazioni extra:

transitorio: www.cmu.edu/traffic21/research … e_estate_2021-22.pdf

Quotazione:
Divertirsi: come le automobili a guida autonoma e le automobili a guida umana possono condividere l’autostrada (2022, 3 ottobre)
recuperato il 3 ottobre 2022
da https://techxplore.com/information/2022-10-nice-self-driving-cars-human-driven-road.html

Questo documento è soggetto a copyright. Al di là di ogni onesto trattamento finalizzato alla ricerca o all’analisi personale, n
la metà potrebbe anche essere riprodotta senza il permesso scritto. Il materiale contenuto viene offerto esclusivamente per funzioni informative.



The Ultimate Managed Hosting Platform

Source link

Continue Reading

Ultime notizie

Ridurre l’evasione fiscale e la frode: l’importanza della collaborazione – The Latest in Artificial Intelligence | Robotica AI

Published

on

Why it’s time for governments to shut the door on fraud

The Ultimate Managed Hosting Platform

Punteggio crediti: CC0 Area Pubblica

Amazon sta utilizzando la tecnologia per avvicinarsi ancora di più ai suoi clienti.

Ha lanciato un nuovissimo tracker del sonno, Halo Rise, che apprende e rileva le situazioni della stanza per aiutare i clienti a ottimizzare il sonno. Astro, la sua residenza robotica, sarà rapidamente in grado di riconoscere porte, finestre di casa, animali domestici e arredi nella residenza di una persona.

Una nuovissima iterazione di Blink, la sua fotocamera digitale per la sicurezza domestica, includerà una vista a 360 gradi per cogliere ogni angolo di una stanza. E l’Alexa di Amazon sarà rapidamente abbastanza bravo e percepirà il dialogo umano in modo efficace sufficiente per annotare le sue storie personali quando richiesto da un acquirente.

“Ci auguriamo che i clienti traggano vantaggio dal proprio qui e ora, e posso farvi sapere che sta funzionando”, Dave Limp, senior di unità e fornitori di Amazon, menzionato mercoledì in occasione del lancio annuale delle unità dell’azienda, il luogo in cui introduce nuovi prodotti e nuovi aggiornamenti che i clienti possono anticipare nei prossimi mesi.

Quest’anno Amazon si è concentrato sull'”intelligenza ambientale”, ovvero il concetto di know-how continua a operare in background, scegliendo le abitudini e le preferenze della persona nel tempo per offrire ulteriori fornitori e vantaggi perché apprende.

“La competenza deve essere personalizzata e sufficientemente intuitiva per adattarsi a te e all’ambiente circostante, non il contrario”, ha detto Limp. “Noi chiamiamo questa intelligenza ambientale”.

“Una vera esperienza ambientale è invisibile e funziona dietro le quinte”, ha affermato Heather Zorn, vicepresidente di Alexa. “Ogni parte che ti presentiamo in questo momento è costruita pensando a questi concetti.”

Per Alexa di Amazon, know-how ambientale significa comprendere frasi, fotografie e indizi di contesto extra. È stato istruito sul catalogo dei prodotti di Amazon, quindi quando una persona sta acquistando e dice “Alexa, presentami il monospalla”, potrebbe forse selezionare la merce migliore. Probabilmente fornirà suggerimenti e decisioni sui personaggi ai bambini, dopodiché genererà racconti “utilizzando il contesto per raccontare come si sviluppa la storia”, ha detto Zorn.

La BMW ha presentato mercoledì il suo assistente vocale dell’era successiva che può essere costruito sul know-how di Alexa.

Astro, il robot domestico di Amazon lanciato nel 2021, può studiare di più sull’ambiente circostante, quindi potrebbe fare di più per i clienti. Piuttosto che studiare semplicemente la struttura di una casa, sarà rapidamente in grado di studiare gli oggetti all’interno della residenza: il luogo a cui appartengono e cosa fanno.

Astro inizierà con le porte e le finestre di casa, quindi potrebbe eventualmente informare una persona se ne viene lasciata una aperta. Quindi studierà per riconoscere questioni come l’arredamento, le ciotole per i pasti e gli animali domestici stessi. Se Astro incontra l’animale domestico di una persona, invierà loro un breve video di ciò che stanno facendo.

Amazon può armare Astro in modo che si comporti come una guardia di sicurezza digitale. Collegando il robot con l’allarme di sicurezza Ring di Amazon, i clienti possono spedire Astro alla ricerca se qualcosa sembra storto e collegarlo a una guardia di sicurezza digitale per guardare, e persino rispondere, a uno stato di cose da lontano.

Amazon sta implementando la partnership “digital safety guard” a un piccolo gruppo di clienti aziendali nei prossimi mesi, ha affermato mercoledì.

“Ognuna di queste unità, da Astro a Ring a Blink, offre ai clienti una maggiore tranquillità”, ha affermato Ken Washington, vicepresidente della robotica dei clienti.

L’altoparlante Echo Dot di Amazon può ottenere un miglioramento tecnologico nuovo di zecca dotato di sensori di temperatura e un “accelerometro”, in modo che una persona possa toccare il per iniziare e interrompere l’audio. L’eco può anche fungere rapidamente da extender Wi-Fi con la nuova tecnologia di eero, un sistema Wi-Fi domestico.

I nuovi dadi Fireplace TV di Amazon abbracceranno sensori che riconoscono le abitudini di una persona e l’ora del giorno, secondo Daniel Rausch, vicepresidente delle unità ricreative e dei fornitori. Quindi saprà attivarsi quando una persona scende al mattino per una tazza di caffè espresso, ma non brillerà brillantemente dopo essere scesa per uno spuntino di mezzanotte.

La TV del camino aggiornata può avere un comando vocale che aiuta i clienti a scoprirlo quando è scappato nelle profondità dei cuscini del divano.

All’interno della camera da letto, Amazon sta monitorando i modelli respiratori e le situazioni della stanza per “cambiare il modo in cui dormi”, in accordo con il supervisore del prodotto Njenga Kariuki.

Mercoledì, Amazon ha lanciato Halo Rise, un rilevatore del sonno, sveglia dolce e sveglia che utilizza sensori e macchine che studiano per tracciare i movimenti e le vie respiratorie di una persona e il sole, la temperatura e l’umidità all’interno della stanza. Presenta ai clienti un riepilogo del sonno che prima o poi utilizzeranno per ottimizzare il proprio sonno.

Non includerebbe telecamere o microfoni, ha detto Kariuki, e traccia esclusivamente i modelli respiratori della persona in particolare più vicina alla macchina, quindi il rumore di fondo di un collaboratore o di un animale domestico non confonderà il sonno di una persona.

Halo Rise potrebbe funzionare con Alexa per provocare routine notturne. Quindi, quando una persona entrerà nel materasso, la macchina abbasserà automaticamente le luci, spegnerà la TV e inizierà una meditazione rilassante.

Amazon ha inoltre lanciato Kindle Scribe, l’era successiva del suo Kindle che consente ai clienti di annotare immediatamente sulla pagina web. Imita la trama della penna su carta come risultato di “nessuno è alla ricerca di un modello più sofisticato della penna”, ha scherzato Limp, vicepresidente senior di unità e fornitori.

All’inizio dell’anno successivo, sarà in grado di spedire immediatamente i documenti da Microsoft Phrase a Kindle Scribe.

“Inventiamo attorno a una premessa facile: il mondo reale riguarda i clienti”, ha affermato Limp. “Ecco perché lavoriamo sodo per costruire unità e fornitori che risolvano i problemi dietro le quinte, in modo che i nostri clienti possano prestare attenzione al proprio qui e ora”.

Prima del lancio delle unità di quest’anno, Amazon ha introdotto ad agosto l’intenzione di accumulare iRobot, l’azienda dietro il robot aspirapolvere Roomba, per $ 1,7 miliardi. Non appena l’accordo si concluderà, il CEO di iRobot Colin Angle procederà alla gestione dell’azienda.


Amazon svela il dispositivo sul comodino che tiene traccia dei modelli di sonno


2022 Le occasioni di Seattle.
Distribuito da Tribune Content material Company, LLC.

Quotazione:
Dalle abitudini del sonno agli animali domestici, le unità Amazon stanno studiando di più. Molto di più (2022, 30 settembre)
recuperato il 30 settembre 2022
da https://techxplore.com/information/2022-09-habits-pets-amazon-devices.html

Questo documento è soggetto a copyright. A parte ogni onesto trattamento a fini di esame o analisi personale, n
la metà potrebbe anche essere riprodotta senza il permesso scritto. Il materiale contenuto viene fornito esclusivamente per funzioni informative.



The Ultimate Managed Hosting Platform

Source link

Continue Reading

Ultime notizie

Il supercomputer AI di Tesla ha fatto scattare la rete elettrica – L’ultima novità in fatto di intelligenza artificiale | Robotica AI

Published

on

Tesla’s AI supercomputer tripped the power grid

The Ultimate Managed Hosting Platform

Augusta Zhang e Jacek Dobrowolski hanno inoltre contribuito a questo testo.

L’esperienza fantasiosa e preveggente del laptop automatizzato aiuta gli analisti dell’intelligence a tenere un passo avanti rispetto a bande, squadre terroristiche e diverse organizzazioni sospette.

L’automazione è al centro di intelligenza artificiale. Servendo alle persone che automatizzano i compiti ripetitivi e sfruttano il loro tempo, l’IA ha portato a successi eccezionali che variano da ottimizzazione delle filiere produttive a salvare vite tramite migliori strategie di trattamento del cancro. L’automazione è incorporata in molti processi su base regolare per accelerare il modo in cui affrontiamo compiti completamente diversi. Un sacco di analisi viene svolta nei campi di AutoML (studio automatizzato delle macchine), AutoDL (automatizzato apprendimento approfondito), autoNLP (elaborazione automatica del linguaggio), autoSpeech (classificazione vocale automatizzata) e autoCV (computer portatile fantasioso e preveggente) per scoprire in che modo le macchine possono aiutarci a risolvere in breve tempo le sfide decifrando la nostra lingua, cercando di capire le foto e altro.

In sostanza, questi campi condividono tutti un mezzo analogo per studiare dalla conoscenza. Le macchine possono analizzare la conoscenza in profondità a causa di livelli nascosti all’interno reti neuraliche scoprono costruzioni e regolarità all’interno della conoscenza e impostano i pesi in modo che un algoritmo possa acquisire la capacità di classificare le informazioni o prevedere i risultati.

Il problema? Accumulo di conoscenze di alta qualità e un sacco di esso.

Sebbene l’intelligenza artificiale sia estremamente utile per estrarre informazioni dalle nostre conoscenze, le persone sono comunque importanti per organizzare i metodi e offrire le basi adeguate affinché le macchine svolgano il lavoro. Una delle maggiori sfide consiste nell’offrire sufficienti conoscenze imparziali, appropriate ed etichettate per la valutazione.

Ad esempio, per esercitarsi con un manichino di rilevamento di oggetti che fa uso di un laptop fantasioso e preveggente per cercare oggetti nelle foto, un consumatore dovrebbe prima presentare molte foto di modelli. Storicamente, un consumatore etichetta manualmente un intero lotto o centinaia di foto e negozi informazioni come il luogo, la misurazione e la raffinatezza degli oggetti di curiosità. Questo processo richiede molto tempo e uno sforzo noioso, che è un grande finanziamento prima di iniziare. In quanto scienziati della conoscenza, la nostra domanda è: possiamo automatizzare il corso di annotazione delle immagini?

Effettivamente, in alcuni casi, certo!

Jacek e io siamo stati contattati di recente per sviluppare una risposta per rilevare i loghi della curiosità nello spazio dell’intelligence sulla sicurezza. Gli analisti dell’intelligence raccolgono informazioni collettivamente da un’ampia gamma di fonti in modo da valutare le minacce e difendere la sicurezza e il benessere finanziario a livello nazionale, insieme a centinaia di migliaia di foto raccolte dai social media. Quando un gruppo nuovo di zecca e sospetto viene sul loro radar, è molto importante preservare il contenuto che condividono, insieme a foto che potrebbero essere riconosciute dalla presenza di un marchio selezionato. È un ottimo caso d’uso per il rilevamento di oggetti, tuttavia è uno sforzo enorme raccogliere ed etichettare conoscenze sufficienti per istruire un manichino fantasioso e preveggente del computer a riconoscere un marchio. Inoltre, il metodo dovrebbe essere ripetuto molte volte perché nuovi loghi di curiosità possono senza dubbio emergere ogni singolo giorno. Come possiamo sviluppare mode abbastanza velocemente da rimanere al passo con quelle minacce in breve evoluzione?

La nostra risoluzione e il modo in cui funziona

Sapevamo che l’approccio più rapido per ottenere le mode corrette nella produzione era automatizzare il più possibile il metodo. Abbiamo sviluppato una pipeline automatica che accelera la creazione di mode di rilevamento del marchio eseguendo i passaggi successivi:

1. Crea un set di coaching creato dall’uomo

Chiediamo all’analista di offrire il marchio di curiosità e le eventuali variazioni di esso, e sovrapponiamo il marchio su una serie di foto di sfondo. Selezioniamo casualmente le dimensioni, la posizione, il problema di ridimensionamento e l’opacità del marchio in ogni immagine per introdurre alcune variazioni e manteniamo l’osservazione del luogo in cui si trovano i loghi tramite i contenitori di delimitazione generati. Le foto di sfondo possono essere prese da set di dati ottenibili pubblicamente, come ImageNet, o possono essere particolarmente particolari per l’area. Nel nostro caso si trattava di foto raccolte dai social. Creando un set di coaching creato dall’uomo in questo modo, prenderemo un singolo marchio e genereremo un sacco o centinaia di foto per allenare meccanicamente un manichino! Ecco un esempio di foto generate artificialmente che includono una serie di variazioni del marchio SAS:

2. Preparare un manichino per il rilevamento di oggetti sul set da allenamento sintetico

Per questo processo, abbiamo utilizzato un manichino Tiny-YOLO, perché ha confermato una superba stabilità tra misurazione e precisione del manichino. Abbiamo adottato l’istanza ottenibile su la pagina GitHub di SAS Deep Learning Python (DLPy).. DLPy è una libreria Python che ti consente di creare in breve tempo modelli di approfondimento in SAS, con pesi pre-addestrati offerti, quindi è stata eccellente per accelerare il nostro corso di modellazione!

I risultati

Il concetto è abbastanza semplice, tuttavia si è rivelato efficiente. Per verificarlo, abbiamo generato un set di coaching creato dall’uomo utilizzando il marchio SAS. Siamo stati in grado di utilizzare una singola immagine del marchio SAS per generare un sacco di foto recenti in pochi minuti. Quindi, abbiamo formato un manichino per il rilevamento di oggetti utilizzando il set di coaching e l’abbiamo segnato su nuove foto, che non sono state utilizzate durante il coaching dei manichini. Queste foto di controllo sono state ottenute qui dagli account dei social media SAS. Dopo appena 13 minuti di coaching, siamo stati in grado di ottenere un manichino davvero corretto, con un richiamo del 93% e una precisione del 93%. Proprio qui, potresti avere alcuni risultati del modello. Ogni campo di delimitazione viola mostra il punto in cui il manichino prevede che un marchio SAS sia attuale, insieme a un indice di confidenza compreso tra 0,00 e 1,00:

Sorprendentemente, il manichino ha dimostrato di funzionare piuttosto bene non solo sui loghi scoperti su foto pubblicitarie ordinate, ma anche su immagini di oggetti reali che incarnano un marchio SAS. Ad esempio, qui abbiamo le carte da gioco aziendali, una bottiglia d’acqua, un bicchiere, una penna e altro.

In questo set di dati, ogni richiamo e precisione sono a circa il 94%.

Utilizzando SAS Viya insieme alle funzionalità open source, siamo stati in grado di sviluppare una risoluzione automatica per il rilevamento del marchio che non richiede alcuna etichettatura della conoscenza della guida. L’invio è solo una singola immagine del marchio di curiosità e l’output è un robusto manichino per laptop fantasioso e preveggente che può essere utilizzato per determinare nuove foto, indipendentemente dal fatto che tu stia analizzando o meno casi di un modello aziendale o monitorando i loghi di organizzazioni sospette. Con questo approccio, accelereremo immensamente la valutazione e lasceremo che gli specialisti si concentrino su ciò che è più problematico: scoprire connessioni nascoste all’interno della conoscenza per svelare le sfide dell’analisi e preservare tutti noi al sicuro.

Vuoi studiare extra?

Prova questo articolo per vedere come due scienziati della conoscenza della SAS hanno costruito un manichino fantasioso e preveggente per laptop multistadio per trovare il loro buon amico canino, il dottor Taco!



The Ultimate Managed Hosting Platform

Source link

Continue Reading

Trending