Differences between revisions 2 and 4 (spanning 2 versions)
Revision 2 as of 2015-01-14 11:36:06
Size: 25665
Editor: lukisi
Comment:
Revision 4 as of 2015-01-31 15:40:17
Size: 15964
Editor: lukisi
Comment:
Deletions are marked like this. Additions are marked like this.
Line 2: Line 2:
Instrada i messaggi (ricevuti da altri nodi o generati dal nodo stesso) che sono destinati ad un dato hash-node. == Idea generale ==
Il funzionamento di servizi distribuiti in un modello non centralizzato di rete, che possiamo chiamare servizi peer-to-peer, si basa sul fatto di poter individuare un nodo fra quelli presenti nella rete in un dato momento al quale rivolgere delle richieste. I nodi presenti nella rete cambiano da un momento all'altro, così come cambia la loro identificazione. Si potrebbe anche aggiungere che non tutti i nodi sono disposti a partecipare attivamente al servizio rispondendo alle richieste altrui e anche questo può cambiare nel tempo.
Line 4: Line 5:
Mantiene le informazioni necessarie.

== Idea generale ==
Il funzionamento dei servizi peer-to-peer si basa sulla definizione di una funzione che associa ad una chiave ''k'' univocamente un nodo esistente nella rete al quale indirizzare delle richieste. Si può opzionalmente aggiungere il requisito che il nodo sia "partecipante" al servizio.
Per ogni servizio occorre definire una funzione che associ ad ogni chiave ''k'' (nel dominio di chiavi definito dal servizio) un nodo esistente nella rete. A tale nodo andranno indirizzate le richieste concernenti la chiave k. Siccome tale nodo dovrà rispondere alle richieste, se il servizio prevede la possibilità che un nodo decida di non partecipare attivamente (chiamiamo questo tipo di servizio un ''servizio opzionale'') va aggiunto il requisito che la funzione associ ad ogni chiave ''k'' un nodo ''partecipante'' al servizio.
Line 13: Line 11:
Sia ''α~-,,t,,-~'' : S → V~-,,t,,-~ la funzione suriettiva che al tempo ''t'' associa ad un indirizzo il nodo che lo detiene. E' suriettiva in quanto ogni nodo ha almeno un indirizzo. E' una funzione non completamente definita in S poiché un indirizzo potrebbe non essere stato assegnato ad alcun nodo. Sia ''α~-,,t,,-~'' : S → V~-,,t,,-~ la funzione suriettiva che al tempo ''t''  associa ad un indirizzo il nodo che lo detiene. E' suriettiva in quanto  ogni nodo ha almeno un indirizzo. E' una funzione non completamente  definita in S poiché un indirizzo potrebbe non essere stato assegnato ad  alcun nodo.
Line 20: Line 18:
Sia ''p'' un servizio, sia ''K'' lo spazio delle chiavi definito da questo servizio. Il servizio p definisce una funzione di hash che mappa lo spazio delle chiavi sullo spazio degli indirizzi. Sia ''p'' un servizio, sia ''K''  lo spazio delle chiavi definito da questo servizio. Il servizio p  definisce una funzione di hash che mappa lo spazio delle chiavi sullo  spazio degli indirizzi.
Line 30: Line 28:
Analogamente il nodo che vuole reperire il dato associato alla chiave k, calcola hash_node(k) e chiede di leggere il dato associato a k. Analogamente  il nodo che vuole reperire il dato associato alla chiave k, calcola  hash_node(k), contatta il nodo e chiede di leggere il dato associato a k.
Line 32: Line 30:
Questo procedimento realizza un database distribuito, perché ogni nodo mantiene solo una porzione delle associazioni chiave-valore. Questo  procedimento realizza un database distribuito, perché ogni nodo  mantiene solo una porzione delle associazioni chiave-valore.
Line 34: Line 32:
Fondamentale è la funzione H~-,,t,,-~. Definiamo la funzione H~-,,t,,-~(x̄) come l'indirizzo x associato ad un nodo esistente (x ∈ dom(α~-,,t,,-~)) che minimizza la distanza x̄ - x, in modo più rigoroso minarg,,x∈dom(α,,~-,,t,,-~,,),,dist(x̄,x). La funzione ''dist'' rappresenta in modo intuitivo la distanza tra due indirizzi, ma è definita in modo che la funzione H~-,,t,,-~ "cerchi" il primo indirizzo valido "procedendo verso destra" fino al gsize per poi ripartire da 0. Questo comportamento ci ritornerà utile in seguito. Precisamente la funzione ''dist(x̄,x)'' si calcola così: Fondamentale è la funzione H~-,,t,,-~. Questa funzione è indipendente dal servizio p, può quindi essere definita e implementata una volta sola. Essa è dipendente dalla conoscenza del dominio di α~-,,t,,-~, cioè di quali indirizzi in S sono detenuti da almeno un nodo. Inoltre, in caso di servizi opzionali, è dipendente anche dalla conoscenza di quali indirizzi sono detenuti da nodi che partecipano al servizio.
Line 36: Line 34:
 * x̄ è formato da x̄~-,,0,,-~·x̄~-,,1,,-~·...·x̄~-,,l-1,,-~.
 * x è formato da x~-,,0,,-~·x~-,,1,,-~·...·x~-,,l-1,,-~.
 * distanza = 0;
 * Per j da l-1 a 0:
  * se x̄~-,,j,,-~ == x~-,,j,,-~:
   * distanza += 0;
  * altrimenti se x~-,,j,,-~ > x̄~-,,j,,-~:
   * distanza += x~-,,j,,-~ - x̄~-,,j,,-~;
  * altrimenti:
   * distanza += x~-,,j,,-~ - x̄~-,,j,,-~ + gsize[j];
  * se j>0:
   * distanza *= gsize[j-1];
La conoscenza degli indirizzi detenuti dai nodi presenti nella rete è realizzata attraverso il protocollo di routing QSPN. Occorre invece definire un ulteriore meccanismo per giungere alla conoscenza di quali indirizzi sono detenuti da nodi che partecipano ad ognuno dei servizi opzionali.
Line 50: Line 37:
In una struttura gerarchica come Netsukuku un nodo non ha la conoscenza di tutti i nodi esistenti nella rete, quindi non può da solo computare la funzione H~-,,t,,-~ in quanto non conosce per intero dom(α~-,,t,,-~). L'implementazione avviene in modo distribuito. In una struttura gerarchica come Netsukuku ([[Netsukuku/ita/docs/ModuloQSPN/AnalisiFunzionale#StrutturaGerarchica|dettagli]]) un nodo non ha la conoscenza di tutti i nodi esistenti nella rete, quindi non può da solo computare la funzione H~-,,t,,-~ in quanto non conosce per intero dom(α~-,,t,,-~).
Line 52: Line 39:
Sia ''n'' un nodo che vuole inviare un messaggio ''m'' all'hash-node della chiave ''k'' per il servizio ''p''. Il nodo ''n'' usa la funzione ''h''~-,,p,,-~ definita da ''p'' per calcolare dalla chiave ''k'' l'indirizzo ''x̄''. A questo punto dovrebbe calcolare ''x''=H~-,,t,,-~(x̄). Procede così: Infatti ogni nodo ''n'' con indirizzo n~-,,0,,-~·n~-,,1,,-~·...·n~-,,l-1,,-~ ha solo conoscenza di:
Line 54: Line 41:
 * Il nodo n ha indirizzo n~-,,0,,-~·n~-,,1,,-~·...·n~-,,l-1,,-~. Ha inoltre conoscenza di:
  * tutti i nodi appartenenti a n~-,,1,,-~,
  * tutti i g-nodi di livello 1 appartenenti a n~-,,2,,-~,
  * ...
  * tutti i g-nodi di livello l-2 appartenenti a n~-,,l-1,,-~,
  * tutti i g-nodi di livello l-1.
 * Questa conoscenza la possiamo chiamare dom~-,,n,,-~(α~-,,t,,-~), cioè il dominio della funzione α~-,,t,,-~ secondo le conoscenze di n.
 * x̄ è formato da x̄~-,,0,,-~·x̄~-,,1,,-~·...·x̄~-,,l-1,,-~.
 * Il nodo n calcola H~-,,t,,-~(x̄) secondo le sue conoscenze, cioè trova un livello ''j'' e un identificativo ''x''~-,,j,,-~ tali che:
  * x~-,,j,,-~ ∈ n~-,,j+1,,-~, oppure j == l-1.
  * Il gnodo x~-,,j,,-~ è quello, fra le conoscenze di n, che minimizza la funzione dist(x̄, x~-,,j,,-~).
  * x~-,,j,,-~ ≠ n~-,,j,,-~.
  * se j == 0 allora n ha trovato con le sue sole conoscenze x~-,,0,,-~ = H~-,,t,,-~(x̄).
  * come caso estremo n potrebbe trovare che esso stesso è il definitivo H~-,,t,,-~(x̄). In questo caso l'algoritmo termina e si passa subito all'esecuzione del messaggio m.
  * Se j > 0 allora il nodo n non conosce l'interno del gnodo x~-,,j,,-~. Ma la sua esistenza implica che nella rete esistono uno o più nodi al suo interno e tra questi senz'altro quello che ha l'indirizzo x che minimizza la funzione dist(x̄,x).
 * Il nodo n e il nodo x (il destinatario del messaggio m) hanno in comune il g-nodo n~-,,j+1,,-~. Tutto il percorso che il messaggio deve fare è all'interno di questo g-nodo; quindi ogni singolo nodo intermedio che riceve il messaggio non necessita, per inoltrarlo, di identificativi a livelli maggiori di j.
 * Il nodo n prepara un messaggio ''m’'' da inoltrare al gnodo x~-,,j,,-~. Questo messaggio contiene:
  * ''n'': la tupla n~-,,0,,-~·n~-,,1,,-~·...·n~-,,j,,-~. ~-Il fatto che la tupla contiene solo gli identificativi inferiori al g-nodo j+1 fa in modo che il coordinatore di un gnodo G sia perfettamente raggiungibile da qualsiasi nodo all'interno di G anche mentre G sta gradualmente migrando.-~
  * ''x̄'': la tupla x̄~-,,0,,-~·x̄~-,,1,,-~·...·x̄~-,,j-1,,-~.
  * ''lvl, pos'': le coordinate del g-nodo che miriamo a raggiungere, cioè j e x~-,,j,,-~.
  * ''pid'': l'identificativo del servizio p.
  * ''id_msg'': un identificativo generato a caso per questo messaggio.
 * Il nodo n invia il messaggio m’ al suo miglior gateway verso il gnodo x~-,,j,,-~. Questo invio viene fatto con protocollo reliable (TCP) senza ricevere una risposta e senza attendere la sua processazione: diciamo in questo senso che il messaggio è inviato in modo asincrono.
 * Il nodo n tiene a mente per un certo periodo l'id del messaggio in attesa di una risposta. Se passa un certo tempo si considera fallito l'invio del messaggio m all'hash-node della chiave k. Più sotto viene descritto cosa dovrà fare n in questo caso.
 * tutti i nodi appartenenti a n~-,,1,,-~,
 * tutti i g-nodi di livello 1 appartenenti a n~-,,2,,-~,
 * ...
 * tutti i g-nodi di livello l-2 appartenenti a n~-,,l-1,,-~,
 * tutti i g-nodi di livello l-1.
Line 79: Line 47:
Il messaggio m’ viene così inoltrato: Questa conoscenza la possiamo chiamare dom~-,,n,,-~(α~-,,t,,-~), cioè il dominio della funzione α~-,,t,,-~ secondo le conoscenze di n.
Line 81: Line 49:
 * Il nodo ''v'' riceve un messaggio m’.
 * Il nodo v confronta il proprio indirizzo con le coordinate presenti in m’. Se v.pos[m’.lvl] == m’.pos allora il messaggio è giunto al g-nodo che mirava a raggiungere (vedi sotto il proseguimento dell'algoritmo).
 * Altrimenti il nodo v inoltra m’ al suo miglior gateway verso il g-nodo (m’.lvl, m’.pos) in modo asincrono con protocollo TCP.
L'implementazione della funzione H~-,,t,,-~ deve dunque avvenire in modo distribuito.
Line 85: Line 51:
Il messaggio m’ raggiunge un nodo dentro il gnodo che mirava a raggiungere. == Ruolo del modulo PeerServices ==
Nel modulo !PeerServices il nodo registra i servizi peer-to-peer ai quali intende partecipare, specificando quali di questi sono opzionali.
Line 87: Line 54:
 * Se m’.lvl == 0 allora il messaggio è giunto alla destinazione finale (vedi sotto il proseguimento dell'algoritmo).
 * Il nodo v calcola H~-,,t,,-~(m’.x̄) secondo le sue conoscenze relative al suo g-nodo di livello m’.lvl, cioè trova un livello ''k'' e un identificativo ''x''~-,,k,,-~. Sicuramente k < m’.lvl.
 * Se il nodo v trova che esso stesso è H~-,,t,,-~(m’.x̄) allora il messaggio è giunto alla destinazione finale (vedi sotto il proseguimento dell'algoritmo).
 * Il nodo v modifica i seguenti membri del messaggio m’:
  * lvl diventa k.
  * pos diventa ''x''~-,,k,,-~.
  * x̄ diventa x̄~-,,0,,-~·x̄~-,,1,,-~·...·x̄~-,,k-1,,-~.
 * Il nodo v inoltra m’ al suo miglior gateway verso il g-nodo (m’.lvl, m’.pos) in modo asincrono con protocollo TCP. L'algoritmo prosegue come detto prima con il prossimo nodo che riceve m’.
Ogni servizio peer-to-peer ha un intero positivo come suo identificativo, ''p_id''.
Line 96: Line 56:
Il messaggio m’ raggiunge la destinazione finale: Il modulo !PeerServices si occupa di divulgare in tutta la rete (tramite trasmissione di vicino in vicino) la conoscenza della partecipazione del nodo ad ogni servizio opzionale. Questa operazione non è necessaria per i servizi non opzionali, proprio perché ogni nodo esistente nella rete partecipa attivamente ad essi.
Line 98: Line 58:
 * Il nodo v prepara uno stub TCP per connettersi al nodo originante tramite percorso interno (vedi trattazione dei percorsi interni ad un g-nodo nel documento [[Netsukuku/ita/docs/ModuloQSPN/LivelliBits|livelli e bits]]) attraverso la tupla m’.n.
 * Una volta realizzata la connessione TCP tra n e v il dialogo consiste in:
  * v comunica a n m’.id_msg;
  * Se n aveva rinunciato ad attendere la risposta a questo messaggio lo comunica a v e qui si interrompe.
  * Altrimenti n comunica a v il messaggio m.
  * v elabora il messaggio e risponde a n. Poi la comunicazione si chiude.
 * Il nodo n completa il metodo p2p che aveva generato il messaggio, eventualmente ritornando un risultato.
Allo stesso tempo il modulo !PeerServices, nei singoli nodi in cui riceve questa informazione e la propaga, si occupa di mantenere la conoscenza, sempre in forma gerarchica, di tutti i partecipanti a tutti i servizi opzionali esistenti nella rete; questo pur senza necessitare di conoscere a priori quali servizi opzionali esistano. Inoltre, quando un nodo entra in un g-nogo ''g'' (per migrazione o per ingresso iniziale nella rete) il modulo richiede subito ai vicini che erano in ''g'' prima di lui le mappe di tutti i servizi opzionali esistenti nella rete.
Line 106: Line 60:
=== Fault tolerance ===
Siano ''n'' ed ''m'' due nodi che conoscono una certa chiave ''k'' per un servizio ''p''. Entrambi sono in grado di calcolare ''x'' = H~-,,t,,-~ ( h~-,,p,,-~ ( k ) ) e di contattare x. Sia ''j_n'' il livello del g-nodo comune a n ed x: cioè x ∈ n~-,,j_n,,-~, x ∉ n~-,,j_n-1,,-~. Sia ''j_m'' il livello del g-nodo comune a m ed x: cioè x ∈ m~-,,j_m,,-~, x ∉ m~-,,j_m-1,,-~. Sia ''j'' il minore tra j_n e j_m: cioè x ∉ n~-,,j-1,,-~, x ∉ m~-,,j-1,,-~. Cioè l'interno del g-nodo x~-,,j-1,,-~ di livello j-1 a cui appartiene il nodo x è sconosciuto per n e per m. Supponiamo ora che per qualche motivo i messaggi instradati dal modulo !PeerServices si perdano all'interno del g-nodo x~-,,ε,,-~ (con ε piccolo a piacere), ε < j-1.
In ogni momento un nodo può fare al suo modulo !PeerServices una richiesta relativa ad un servizio con un dato ''p_id''. Se il servizio è non-opzionale per definizione esso è fra quelli registrati, quindi il modulo lo conosce, sa che è non-opzionale e non ha bisogno di mappe di partecipazione per ricercare un suo hash_node. Se il servizio pur essendo opzionale è stato registrato, anche in questo caso il modulo lo conosce e sa che deve consultare le mappe di partecipazione (in questo caso almeno il nodo stesso è nelle mappe). Se il servizio opzionale non è stato registrato, cioè il nodo non vi partecipa attivamente possono esservi due casi:
Line 109: Line 62:
Pur essendo questa anomalia circoscritta ad un g-nodo piccolo a piacere, questo impedirebbe ai nodi n ed m di scrivere e leggere dati con chiave k nel servizio p.

Dopo che n vede fallire il suo tentativo di contattare x per salvare un record con chiave k, n deve cercare di isolare il g-nodo malfunzionante. Se lo facesse basandosi solo sulle sue conoscenze potrebbe solo calcolare ''x''’ = H~-,,t,,-~ ( h~-,,p,,-~ ( k ), exclude_list=[x~-,,j_n-1,,-~] ). Ora il nodo m cerca di contattare x per leggere il record con chiave k, vede che il suo tentativo di contattare x fallisce e quindi prova ad isolare il g-nodo malfunzionante. Basandosi solo sulle sue conoscenze calcolerebbe ''x''’’ = H~-,,t,,-~ ( h~-,,p,,-~ ( k ), exclude_list=[x~-,,j_m-1,,-~] ). La conseguenza è che se j_m ≠ j_n allora n ed m contattano nodi diversi.

Questo significa che un meccanismo robusto deve prevedere che il nodo n che cerca di contattare il nodo x ∈ n~-,,j_n,,-~ e non vi riesce deve rilevare tutti gli identificativi del g-nodo x~-,,ε,,-~ (dal livello j_n-1 al livello ε) in cui il messaggio si è perso. Sarà cura di n, prima di effettuare ulteriori tentativi, di memorizzare questa tupla nel formato adeguato per evitare di giungere nuovamente allo stesso g-nodo. Ad esempio il nodo n sa, a seconda del servizio, se deve memorizzare solo la tupla interna al g-nodo in cui è avvenuta la ricerca (n~-,,j_n,,-~) oppure aggiungere i suoi identificativi fino ad un certo livello (ad esempio se stava contattando il Coordinator di un certo g-nodo) oppure fino all'ultimo livello.

==== Modifiche agli algoritmi ====
Modifichiamo l'algoritmo di instradamento considerando che si deve comunicare al nodo originante del messaggio m’ quali g-nodi sono stati raggiunti correttamente.

Modifichiamo inoltre l'algoritmo di calcolo di H~-,,t,,-~ considerando che deve essere possibile escludere un set di determinati g-nodi. Questi elementi da escludere possono essere, a seconda del momento come vedremo subito, espressi sotto forma di tuple globali (da l-1 a ε) oppure di tuple interne ad un g-nodo a cui il nodo appartiene.

Sia ''e_list'' il set di g-nodi da escludere. In questo set ogni g-nodo è espresso sotto forma di tupla globale. Il nodo n istanzia questo set inizialmente vuoto quando inizia il suo tentativo di contattare l'hash-node x̄.

Per prima cosa il nodo n sceglie dal set e_list quei g-nodi che sono nella sua mappa, cioè quelli che hanno il g-nodo direttamente superiore in comune con il nodo stesso, e li mette nel set ''my_e_list''. Il nodo n calcola H~-,,t,,-~(x̄, exclude_list=my_e_list) come prima, aggiungendo il vincolo di esclusione di quei g-nodi. Trova un livello ''j'' e un identificativo ''x''~-,,j,,-~ ∈ n~-,,j+1,,-~. Ora il nodo n sceglie dal set e_list quei g-nodi che sono interni al g-nodo x~-,,j,,-~ (il g-nodo x~-,,j,,-~ sicuramente non era nel set e_list) e li aggiunge al messaggio m’ come membro m’.e_list; in questa lista ogni g-nodo è espresso sotto forma di tupla interna a x~-,,j,,-~ (da j-1 a ε) dove j è il livello del g-nodo obiettivo.

Come avveniva in precedenza, n invia m’ al miglior gateway e questo lo inoltra fino a raggiungere un nodo v dentro il g-nodo obiettivo. Quando v deve calcolare H~-,,t,,-~(m’.x̄) prima sceglie dal set m’.e_list quei g-nodi che sono nella sua mappa e li mette nel set ''my_e_list''. Poi calcola H~-,,t,,-~(m’.x̄, exclude_list=my_e_list) e può trovarsi in una tra 3 diverse situazioni:

 1. v è la destinazione finale di m’.
 1. v individua un g-nodo interno che diventa il nuovo obiettivo di m’, cioè trova un livello ''k'' e un identificativo ''x''~-,,k,,-~.
 1. v trova che a causa dei vincoli nessun g-nodo al suo interno è più valido come obiettivo per m’.

Nel caso 1 il nodo v si connette via TCP ad n attraverso la tupla m’.n e ne esegue la richiesta, come descritto prima.

Nel caso 2 il nodo v sceglie dal set m’.e_list quei g-nodi che sono interni al g-nodo x~-,,k,,-~ (il g-nodo x~-,,k,,-~ sicuramente non era nel set m’.e_list), li esprime sotto forma di tuple interne a x~-,,k,,-~ (da k-1 a ε) e mette questa lista al posto del vecchio contenuto di m’.e_list; effettua anche le altre modifiche a m’ e lo inoltra verso il suo nuovo obiettivo; subito dopo v si connette via TCP ad n attraverso la tupla m’.n e gli comunica (senza necessitare alcuna risposta) l'identificativo m’.id_msg e la tupla che identifica all'interno di m’.n~-,,j+1,,-~ il g-nodo nuovo obiettivo.

Nel caso 3 il nodo v si connette via TCP ad n attraverso la tupla m’.n e gli comunica (senza necessitare alcuna risposta) il fallimento indicando l'identificativo m’.id_msg e la tupla che identifica all'interno di m’.n~-,,j+1,,-~ il g-nodo di v, cioè la tupla che nei suoi prossimi tentativi n dovrà escludere.
 1. Il modulo è venuto a conoscenza di alcuni nodi nella rete che partecipano. Allora ha le mappe per avviare la ricerca dell'hash_node.
 1. Il modulo non ha mai ricevuto informazioni di partecipazioni al servizio con questo identificativo. Allora deduce che nessun nodo nella rete è partecipante al servizio.
Line 137: Line 66:
Con questi accorgimenti quando il nodo n invia il messaggio m’ al g-nodo x~-,,j,,-~ = H~-,,t,,-~ ( h~-,,p,,-~ ( ''k'' ) ) e si mette in attesa delle risposte possono verificarsi questi casi: Il modulo !PeerServices si occupa, su richiesta del nodo, di avviare una comunicazione verso un hash_node per la chiave ''k'' di un servizio ''p''; cioè esso avvia il calcolo distribuito di H~-,,t,,-~. Per fare questo il modulo non ha bisogno di conoscere l'implementazione della funzione h~-,,p,,-~ ma soltato il risultato di h~-,,p,,-~ ( k ); d'altra parte questa richiesta arriva dal nodo stesso quindi il nodo conosce l'implementazione della funzione h~-,,p,,-~. Inoltre per fare questa operazione non è necessario che il nodo partecipi al servizio p.
Line 139: Line 68:
 1. Il nodo n riceve (oltre ad alcuni messaggi intermedi) per tempo una risposta da parte di x. Il messaggio m gli viene consegnato.
 1. Il nodo n riceve un messaggio da parte di un g-nodo x~-,,ε,,-~ che gli comunica che al suo interno non ci sono obiettivi validi.
 1. Il nodo n riceve alcuni messaggi (0 o più) che gli segnalano dei g-nodi x~-,,k,,-~ con k < j come nuove destinazioni di m’ e poi più niente fino allo scadere del tempo massimo. In questo caso viene scelto come valore ε il più piccolo tra i messaggi ricevuti, oppure se sono stati ricevuti 0 messaggi lo stesso valore j.
Lo stesso modulo, nei nodi intermedi verso la destinazione, si occupa di instradare il messaggio e di proseguire il calcolo distribuito di H~-,,t,,-~. Per fare questo il modulo non ha bisogno di conoscere la logica interna del servizio ''p'', ma deve solo sapere l'identificativo del servizio ''p_id'' e il valore di h~-,,p,,-~ ( k ); questi dati sono contenuti nel messaggio da instradare. Quindi per fare questa operazione il nodo non ha bisogno né di partecipare al servizio p e nemmeno di conoscere nulla sull'implementazione del servizio p.
Line 143: Line 70:
Nei casi 2 e 3 abbiamo un tentativo fallito e un valore x~-,,ε,,-~ da escludere nelle future ricerche. Il valore x~-,,ε,,-~ è espresso sotto forma di tupla interna a x~-,,j,,-~, quindi il nodo n è in grado di completare la tupla per renderla globale e poi la inserisce nel set e_list. Il nodo n effettuerà quindi altri tentativi escludendo i g-nodi inadatti come è stato descritto sopra. Lo stesso modulo, nel nodo destinazione del messaggio, si occupa di ricevere la richiesta del nodo originante e di servirla. Perché il modulo possa servirla, nel modulo deve essere stato registrato il servizio peer-to-peer. Difatti il nodo deve essere partecipante al servizio ''p''. Inoltre il modulo fornisce all'implementazione del servizio p la possibilità di replicare qualsiasi dato che esso memorizza su un numero ''q'' di nodi partecipanti al servizio che sarebbero stati i più prossimi destinatari della richiesta in caso di sua assenza.
Line 145: Line 72:
L'unico errore (eccezione) definitivo ammissibile per una richiesta ad un servizio peer-to-peer sarà quindi il "nessun nodo nella rete partecipa al servizio" in caso di servizi opzionali. Nei servizi obbligatori invece come minimo il nodo n risponde a se stesso.

== Repliche ==
Quando un nodo ''v'' riceve la richiesta di memorizzare (o aggiornare, o rinfrescare) un record con chiave ''k'' e valore ''val'' nella sua porzione del database distribuito del servizio ''p'' si occupa di replicare questo dato su un numero ''q'' di nodi replica. L'obiettivo è fare sì che se il nodo muore o si sconnette dalla rete, alla prossima richiesta di lettura del dato venga comunque data la risposta corretta. Quindi v deve scegliere i nodi che saranno contattati per la chiave k quando lui non parteciperà più.

Grazie all'introduzione del meccanismo di fault tolerance descritto sopra, scegliere e contattare tali nodi diventa un esercizio banale. Di seguito l'algoritmo:

 * Il nodo v calcola ''x̄'' = h~-,,p,,-~ ( k ).
 * ''lista_repliche'' = []
 * ''lista_esclusioni'' = [v]
 * Mentre lista_repliche.size < q:
  * Calcola e contatta ''x'' = H~-,,t,,-~ ( x̄, exclude_list=lista_esclusioni ) ~-^1^-~ . Il risultato di questa operazione può essere di 3 tipi: 1) viene contattato un nodo x; 2) viene individuato un g-nodo x~-,,j,,-~ dove cercare x, ma il contatto non riesce e viene individuato un g-nodo x~-,,ε,,-~ da escludere dalle prossime ricerche; 3) si rileva che nessun altro nodo può soddisfare la richiesta.
  * caso 1:
   * Il nodo n comunica ad x il messaggio m che consiste in "replica il dato k,val nella tua cache per p"
   * lista_repliche.add(x)
   * lista_esclusioni.add(x)
  * caso 2:
   * lista_esclusioni.add(x~-,,ε,,-~)
  * caso 3:
   * break.

Note:

 1. Con la dicitura "contatta ''x'' = H~-,,t,,-~ ( x̄, exclude_list=lista_esclusioni )" si intende la sequenza di operazioni descritte negli algoritmi modificati con il meccanismo di fault tolerance. Quindi in realtà il nodo v quando esegue la funzione H~-,,t,,-~ mette nella exclude_list solo una parte degli elementi presenti in lista_esclusioni, cioè i g-nodi visibili nella sua mappa; poi a seconda di quale g-nodo x~-,,j,,-~ è stato eletto il nodo v prende un sottoinsieme degli altri elementi presenti in lista_esclusioni e li inserisce nel messaggio m’ con cui cerca di contattare x.

=== Popolamento della cache al bootstrap ===
Quando un nodo ''n'' entra nella rete (oppure quando inizia a partecipare ad un servizio) può venirgli assegnato un indirizzo prossimo a qualche chiave precedentemente salvata nel database distribuito. Deve svolgere quindi alcune operazioni per reperire e memorizzare i record di sua pertinenza.

Prerequisito di queste operazioni è che il nodo sia maturo, cioè abbia piena conoscenza dei nodi e g-nodi presenti nella rete che sono di sua visibilità. In caso di servizio opzionale deve anche avere piena conoscenza della mappa di nodi partecipanti al servizio.

Abbiamo visto che la funzione H~-,,t,,-~ cerca l'indirizzo che minimizza la funzione dist e che la funzione dist introduce una sorta di "direzione a destra" nella ricerca dell'indirizzo. Definiamo ora la funzione ''H_rev''~-,,t,,-~(x̄) = minarg,,x∈dom(α,,~-,,t,,-~,,),,''dist_rev''(x̄,x) dove la funzione dist_rev implementa la "direzione a sinistra" nella ricerca dell'indirizzo. Per farlo basta definire ''dist_rev''(x̄,x) = dist(x,x̄). Inoltre va aggiunto al messaggio m’ un campo booleano ''reverse'' che impostato a True indica al nodo ''v'' di proseguire la ricerca usando H_rev.

Questo è l'algoritmo che esegue n per popolare la sua cache:

 * Il nodo n ha indirizzo n~-,,0,,-~·n~-,,1,,-~·...·n~-,,l-1,,-~.
 * Per ogni livello ''j'' da 0 a l-1:
  * ''lista_esclusioni'' = [n~-,,j,,-~]
  * ''sx_to_be_done'' = True
  * Mentre True:
   * Il nodo n calcola e contatta ''x'' = H~-,,t,,-~ ( n, exclude_list=lista_esclusioni ) circoscritto al g-nodo n~-,,j+1,,-~ ~-^1^-~ . Il risultato di questa operazione può essere di 3 tipi: 1) viene contattato un nodo x; 2) viene individuato un g-nodo x~-,,j,,-~ dove cercare x, ma il contatto non riesce e viene individuato un g-nodo x~-,,ε,,-~ da escludere dalle prossime ricerche; 3) si rileva che nessun altro nodo può soddisfare la richiesta.
   * caso 1:
    * Il nodo n comunica ad x il messaggio m, cioè gli chiede la sua cache per il servizio p.~-^2^-~
    * lista_esclusioni.add(x)
    * break.
   * caso 2:
    * lista_esclusioni.add(x~-,,ε,,-~)
   * caso 3:
    * sx_to_be_done = False
    * break.
  * Se sx_to_be_done:
   * Mentre True:
    * Il nodo n calcola e contatta ''x'' = H_rev~-,,t,,-~ ( n, exclude_list=lista_esclusioni ) circoscritto al g-nodo n~-,,j+1,,-~. Il risultato di questa operazione può essere di 3 tipi: 1) viene contattato un nodo x; 2) viene individuato un g-nodo x~-,,j,,-~ dove cercare x, ma il contatto non riesce e viene individuato un g-nodo x~-,,ε,,-~ da escludere dalle prossime ricerche; 3) si rileva che nessun altro nodo può soddisfare la richiesta.
    * caso 1:
     * Il nodo n comunica ad x il messaggio m, cioè gli chiede la sua cache per il servizio p.
     * break.
    * caso 2:
     * lista_esclusioni.add(x~-,,ε,,-~)
    * caso 3:
     * break.

Note:

 1. Aggiungere questo requisito all'implementazione della funzione H~-,,t,,-~ è banale: basta escludere dalla ricerca iniziale fatta dal nodo n tutti i g-nodi esterni al g-nodo n~-,,j+1,,-~.
 1. Come il nodo n utilizzi la cache reperita dai vari singoli nodi dipende dal servizio. Di norma n memorizza tutti i record nella sua cache.
----
Il modulo !PeerServices si occupa per un nodo appena entrato nella rete di reperire per tutti i servizi a cui il nodo intende partecipare tutti i record che sono di sua pertinenza nel mantenimento del database distribuito, come destinatario principale o come replica.
Line 212: Line 77:
 * Factory per aprire una connessione TCP con un percorso interno ad un proprio g-nodo verso un nodo di cui si conosce l'identificativo interno.
 * Set dei servizi peer-to-peer. Ogni servizio è una istanza di una classe che deriva dalla classe comune !PeerService. Ogni servizio ha un identificativo numerico univoco.
 * a

Durante le operazioni del modulo è possibile aggiungere un servizio di tipo opzionale.
 * Factory  per aprire una connessione TCP con un percorso interno ad un proprio  g-nodo verso un nodo di cui si conosce l'identificativo interno.
Line 219: Line 80:
 * Viene definita una classe base (!PeerService) che può essere derivata per implementare ogni specifico servizio peer-to-peer.  * Viene definita una classe base astratta (!PeerService) che deve essere derivata per implementare ogni specifico servizio peer-to-peer, sia quelli opzionali che quelli non opzionali.
 * Viene definita una classe base astratta (!PeerClient) che può aiutare nell'implementazione di una classe da usare come client per un servizio peer-to-peer.
 * Fornisce un metodo per registrare le istanze di classi che rappresentano un servizio a cui il nodo partecipa.
 * Fornisce un metodo (''contact_peer'') per effettuare una richiesta ad un servizio peer-to-peer. Sono passate al metodo queste informazioni:
  * l'identificativo del servizio,
  * la tupla obiettivo, cioè il risultato di h~-,,p,,-~ ( k ),
  * l'istanza di !RemoteCall che rappresenta la richiesta da effettuare,
  * il tempo limite per l'esecuzione della richiesta una volta consegnata all'hash_node.
 Siccome il modulo necessita di conoscere soltanto i servizi a cui il nodo partecipa attivamente, queste informazioni lo abilitano ad effettuare comunque la richiesta; basta che il nodo sappia come interfacciarsi con il servizio. Il metodo restituisce una istanza di ISerializable che può rappresentare il risultato della richiesta o una eccezione prevista dal servizio stesso. Oppure rilancia una eccezione (!PeersNoParticipantsInNetworkError) se al momento nessun nodo nella rete partecipa attivamente al servizio.
Line 226: Line 95:
 * leggere l'identificativo del proprio nodo a ogni livello (metodo 'i_peers_get_my_pos');
Line 227: Line 97:
 * leggere l'identificativo del proprio nodo a ogni livello (metodo 'i_peers_get_my_pos');
Line 229: Line 98:
 * leggere il numero di nodi stimato all'interno di un certo g-nodo (metodo 'i_peers_get_nodes_in_group').
 * ottenere uno stub per inviare un messaggio al miglior gateway verso un certo g-nodo (metodo 'i_peers_gateway').
 * ottenere uno stub per inviare un messaggio al miglior gateway verso un certo g-nodo, segnalando opzionalmente se si vuole escludere un certo gateway perché era il passo precedente nell'instradamento del messaggio e / o se si vuole escludere e rimuovere un certo gateway che nel tentativo precedente ha fallito la comunicazione (metodo 'i_peers_gateway').
Line 233: Line 101:
In alcuni casi sarà necessario realizzare una comunicazione TCP verso un nodo originante di un messaggio. In tali casi si vuole raggiungere il nodo attraverso un percorso interno al proprio g-nodo di un dato livello. L'oggetto fornito al modulo a questo scopo implementa l'interfaccia IPeersBackConnectionFactory, la quale permette di: In  alcuni casi sarà necessario realizzare una comunicazione TCP verso un  nodo originante di un messaggio. In tali casi si vuole raggiungere il  nodo attraverso un percorso interno al proprio g-nodo di un dato  livello.
Line 235: Line 103:
 * realizzare una connessione TCP con un certo nodo (metodo 'i_peers_open_tcp_inside'). In tutti i casi in cui questo è necessario il dialogo tra i due nodi è molto semplice e prevede sempre uno scambio di richiesta e risposta ad iniziativa del nodo che inizia la connessione. Sarà quindi sufficiente che si ottenga uno stub che realizza la chiamata di un metodo remoto tramite questa connessione TCP.

L'oggetto fornito al modulo a questo scopo implementa l'interfaccia IPeersBackStubFactory, la quale permette di:

 * ottenere uno stub per inviare un messaggio ad un dato nodo mediante connessione TCP interna (metodo 'i_peers_get_tcp_inside').
Line 238: Line 110:
Le tuple che il modulo elabora per il calcolo della funzione H~-,,t,,-~ sono istanze di una classe nota al modulo. Anche se rappresentano degli indirizzi di nodi (all'interno della rete o all'interno di un g-nodo) non viene usata la stessa classe che rappresenta un Netsukuku address (Naddr) o una sua interfaccia. Tutte le classi che implementano un servizio derivano da !PeerService. Questa è una classe astratta definita dal modulo.
Line 240: Line 112:
La classe usata in questo modulo è !PeerTuple. Si tratta di una classe serializzabile in quanto le tuple vanno comunicate nei messaggi da inoltrare. La classe base ha un membro ''p_id'' che identifica un servizio in tutta la rete. Esso è valorizzato nel costruttore ed è in seguito di sola lettura. L'istanza del servizio è passata come istanza di !PeerService al modulo (!PeersManager) nella chiamata iniziale al metodo di registrazione e questo la memorizza associandola al suo identificativo.

La classe base ha un membro booleano ''p_is_optional'' che dice se il servizio è da considerarsi opzionale. Esso è valorizzato nel costruttore ed è in seguito di sola lettura.

La classe base ha un metodo astratto ''exec'' che viene richiamato sull'hash_node che deve servire una richiesta.
Line 243: Line 119:
La classe che implementa un servizio deriva da !PeerService. La classe !PeerClient può essere derivata per implementare il client di un servizio, sia esso opzionale o non opzionale.
Line 245: Line 121:
La classe base non sa come ottenere da una chiave ''k'' la tupla ''x'', questo procedimento spetta alla classe derivata. Tuttavia molte operazioni saranno uguali nella maggior parte dei servizi. Quindi la classe base cerca di fornire i servizi comuni senza tuttavia essere di impedimento alla classe derivata se vuole usare altre modalità di calcolo. Per fare questo la classe base fornisce: La classe derivata, per ogni tipo di richiesta che è prevista dal servizio, ha il compito di produrre l'oggetto !RemoteCall che rappresenta la richiesta, di specificare quale sia il tempo massimo di attesa per l'esecuzione, di interpretare l'istanza di ISerializable ricevuta come risposta.
Line 247: Line 123:
 * un metodo virtuale 'perfect_tuple' che riceve a parametro la chiave (Object k) e restituisce la tupla x.
 * un metodo astratto 'hash_from_key' che riceve a parametro la chiave (Object k) e un intero (top) e restituisce un intero tra 0 e top.
La classe base ha la conoscenza della topologia della rete, cioè il numero di livelli e per ognuno la gsize. Oltre a ciò non necessita di conoscere le posizioni del nodo corrente. Ha inoltre conoscenza dell'identificativo del servizio.
Line 250: Line 125:
Quando le operazioni del modulo richiedono il calcolo di h~-,,p,,-~ ( k ) su un certo servizio p, il metodo 'perfect_tuple' viene richiamato sull'istanza di !PeerService, quindi tale metodo deve essere pubblico. La classe base ha un riferimeno all'istanza di !PeersManager che usa per contattare l'hash_node (metodo ''contact_peer'').
Line 252: Line 127:
Se tale metodo non viene ridefinito dalla classe derivata, il suo comportamento è il seguente. L'istanza conosce le dimensioni dei g-nodi ad ogni livello (gsizes) quindi calcola la dimensione dello spazio degli indirizzi validi. Poi richiama il metodo 'hash_from_key' passando oltre alla chiave k il numero massimo dell'hash (la dimensione dello spazio di indirizzi meno uno). In questo metodo la classe derivata deve occuparsi di associare alla chiave un valore di hash (di norma uniformemente distribuito) compreso tra 0 e il valore massimo (inclusi). Questo metodo è demandato alla classe derivata e quindi è definito astratto. Inoltre deve essere usato solo con la modalità sopra descritta, quindi può essere definito protetto. Nella classe derivata va definito il calcolo di h~-,,p,,-~. La funzione h~-,,p,,-~ deve associare ad una chiave ''k'' un indirizzo in S, cioè una tupla x̄ = x̄~-,,0,,-~·x̄~-,,1,,-~·...·x̄~-,,l-1,,-~ le cui componenti siano compatibili con la topologia della rete. La classe base non sa come ottenere da una chiave ''k'' la tupla x̄, questo procedimento spetta alla classe derivata. Tuttavia molte operazioni saranno uguali nella maggior parte dei servizi. Quindi la classe base cerca di fornire i servizi comuni senza tuttavia essere di impedimento alla classe derivata se vuole usare altre modalità di calcolo. Per fare questo la classe base fornisce:
Line 254: Line 129:
Poi, nel metodo 'perfect_tuple', l'istanza usa il valore di hash per produrre una tupla sulla base della sua conoscenza di gsizes.  * un metodo virtuale 'perfect_tuple' che riceve a parametro la chiave (Object k) e restituisce la tupla x̄.
 * un metodo astratto 'hash_from_key' che riceve a parametro la chiave (Object k) e un intero (top) e restituisce un intero tra 0 e top.
Line 256: Line 132:
Se invece la classe derivata ridefinisce il metodo 'perfect_tuple' è libera di calcolare direttamente la tupla x a partire dalla chiave e dalle sue conoscenze. Quando le operazioni del modulo richiedono il calcolo di h~-,,p,,-~ ( k ) su un certo servizio p, il metodo 'perfect_tuple' viene richiamato sull'istanza di !PeerService, quindi tale metodo deve essere pubblico.

Se tale metodo non viene ridefinito dalla classe derivata, il suo comportamento è il seguente. L'istanza conosce le dimensioni dei g-nodi ad ogni livello (gsizes) quindi calcola la dimensione dello spazio degli indirizzi validi. Poi richiama il metodo 'hash_from_key' passando oltre alla chiave k il numero massimo dell'hash (la dimensione dello spazio di indirizzi meno uno). In questo metodo la classe derivata deve occuparsi di associare alla chiave un valore di hash (di norma uniformemente distribuito) compreso tra 0 e il valore massimo (inclusi). Questo metodo è demandato alla classe derivata e quindi è definito astratto. Inoltre deve essere usato solo con la modalità sopra descritta, quindi può essere definito protetto.

Poi, nel metodo 'perfect_tuple', l'istanza usa il valore di hash per produrre una tupla x̄ sulla base della sua conoscenza di gsizes.

Se invece la classe derivata ridefinisce il metodo 'perfect_tuple' è libera di calcolare direttamente la tupla x̄ a partire dalla chiave e dalle sue conoscenze. In questo caso, inoltre, può decidere di restituire una tupla con un numero di elementi inferiore al numero di livelli della rete. In questo caso la tupla x̄ = x̄~-,,0,,-~·x̄~-,,1,,-~·...·x̄~-,,j,,-~ quando viene passata alla funzione H~-,,t,,-~ circoscrive la sua ricerca dell'hash_node al g-nodo n~-,,j+1,,-~ del nodo ''n'' che fa la richiesta.

Modulo PeerServices - Analisi Funzionale

Idea generale

Il funzionamento di servizi distribuiti in un modello non centralizzato di rete, che possiamo chiamare servizi peer-to-peer, si basa sul fatto di poter individuare un nodo fra quelli presenti nella rete in un dato momento al quale rivolgere delle richieste. I nodi presenti nella rete cambiano da un momento all'altro, così come cambia la loro identificazione. Si potrebbe anche aggiungere che non tutti i nodi sono disposti a partecipare attivamente al servizio rispondendo alle richieste altrui e anche questo può cambiare nel tempo.

Per ogni servizio occorre definire una funzione che associ ad ogni chiave k (nel dominio di chiavi definito dal servizio) un nodo esistente nella rete. A tale nodo andranno indirizzate le richieste concernenti la chiave k. Siccome tale nodo dovrà rispondere alle richieste, se il servizio prevede la possibilità che un nodo decida di non partecipare attivamente (chiamiamo questo tipo di servizio un servizio opzionale) va aggiunto il requisito che la funzione associ ad ogni chiave k un nodo partecipante al servizio.

Sia S lo spazio di indirizzi validi per i nodi della rete.

Sia Vt il set di nodi nella rete al tempo t.

Sia αt : S → Vt la funzione suriettiva che al tempo t associa ad un indirizzo il nodo che lo detiene. E' suriettiva in quanto ogni nodo ha almeno un indirizzo. E' una funzione non completamente definita in S poiché un indirizzo potrebbe non essere stato assegnato ad alcun nodo.

Definiamo una funzione che al tempo t assegni ad ogni indirizzo in S un indirizzo nel dominio di αt. Cioè dato un indirizzo valido che potrebbe non essere stato assegnato tale funzione ritorna un indirizzo assegnato.

  • Ht : S → dom(αt)

DHT: Distributed Hash Table

Sia p un servizio, sia K lo spazio delle chiavi definito da questo servizio. Il servizio p definisce una funzione di hash che mappa lo spazio delle chiavi sullo spazio degli indirizzi.

  • hp : K → S

Quando un nodo, al tempo t, vuole scrivere la coppia chiave-valore (k, v) nel database distribuito il nodo calcola:

  • hash_node(k) = αt ( Ht ( hp ( k ) ) )

Contatta quindi il nodo hash_node(k) e chiede di memorizzare la coppia (k, v).

Analogamente il nodo che vuole reperire il dato associato alla chiave k, calcola hash_node(k), contatta il nodo e chiede di leggere il dato associato a k.

Questo procedimento realizza un database distribuito, perché ogni nodo mantiene solo una porzione delle associazioni chiave-valore.

Fondamentale è la funzione Ht. Questa funzione è indipendente dal servizio p, può quindi essere definita e implementata una volta sola. Essa è dipendente dalla conoscenza del dominio di αt, cioè di quali indirizzi in S sono detenuti da almeno un nodo. Inoltre, in caso di servizi opzionali, è dipendente anche dalla conoscenza di quali indirizzi sono detenuti da nodi che partecipano al servizio.

La conoscenza degli indirizzi detenuti dai nodi presenti nella rete è realizzata attraverso il protocollo di routing QSPN. Occorre invece definire un ulteriore meccanismo per giungere alla conoscenza di quali indirizzi sono detenuti da nodi che partecipano ad ognuno dei servizi opzionali.

HDHT: Hierarchical DHT

In una struttura gerarchica come Netsukuku (dettagli) un nodo non ha la conoscenza di tutti i nodi esistenti nella rete, quindi non può da solo computare la funzione Ht in quanto non conosce per intero dom(αt).

Infatti ogni nodo n con indirizzo n0·n1·...·nl-1 ha solo conoscenza di:

  • tutti i nodi appartenenti a n1,

  • tutti i g-nodi di livello 1 appartenenti a n2,

  • ...
  • tutti i g-nodi di livello l-2 appartenenti a nl-1,

  • tutti i g-nodi di livello l-1.

Questa conoscenza la possiamo chiamare domnt), cioè il dominio della funzione αt secondo le conoscenze di n.

L'implementazione della funzione Ht deve dunque avvenire in modo distribuito.

Ruolo del modulo PeerServices

Nel modulo PeerServices il nodo registra i servizi peer-to-peer ai quali intende partecipare, specificando quali di questi sono opzionali.

Ogni servizio peer-to-peer ha un intero positivo come suo identificativo, p_id.

Il modulo PeerServices si occupa di divulgare in tutta la rete (tramite trasmissione di vicino in vicino) la conoscenza della partecipazione del nodo ad ogni servizio opzionale. Questa operazione non è necessaria per i servizi non opzionali, proprio perché ogni nodo esistente nella rete partecipa attivamente ad essi.

Allo stesso tempo il modulo PeerServices, nei singoli nodi in cui riceve questa informazione e la propaga, si occupa di mantenere la conoscenza, sempre in forma gerarchica, di tutti i partecipanti a tutti i servizi opzionali esistenti nella rete; questo pur senza necessitare di conoscere a priori quali servizi opzionali esistano. Inoltre, quando un nodo entra in un g-nogo g (per migrazione o per ingresso iniziale nella rete) il modulo richiede subito ai vicini che erano in g prima di lui le mappe di tutti i servizi opzionali esistenti nella rete.

In ogni momento un nodo può fare al suo modulo PeerServices una richiesta relativa ad un servizio con un dato p_id. Se il servizio è non-opzionale per definizione esso è fra quelli registrati, quindi il modulo lo conosce, sa che è non-opzionale e non ha bisogno di mappe di partecipazione per ricercare un suo hash_node. Se il servizio pur essendo opzionale è stato registrato, anche in questo caso il modulo lo conosce e sa che deve consultare le mappe di partecipazione (in questo caso almeno il nodo stesso è nelle mappe). Se il servizio opzionale non è stato registrato, cioè il nodo non vi partecipa attivamente possono esservi due casi:

  1. Il modulo è venuto a conoscenza di alcuni nodi nella rete che partecipano. Allora ha le mappe per avviare la ricerca dell'hash_node.
  2. Il modulo non ha mai ricevuto informazioni di partecipazioni al servizio con questo identificativo. Allora deduce che nessun nodo nella rete è partecipante al servizio.


Il modulo PeerServices si occupa, su richiesta del nodo, di avviare una comunicazione verso un hash_node per la chiave k di un servizio p; cioè esso avvia il calcolo distribuito di Ht. Per fare questo il modulo non ha bisogno di conoscere l'implementazione della funzione hp ma soltato il risultato di hp ( k ); d'altra parte questa richiesta arriva dal nodo stesso quindi il nodo conosce l'implementazione della funzione hp. Inoltre per fare questa operazione non è necessario che il nodo partecipi al servizio p.

Lo stesso modulo, nei nodi intermedi verso la destinazione, si occupa di instradare il messaggio e di proseguire il calcolo distribuito di Ht. Per fare questo il modulo non ha bisogno di conoscere la logica interna del servizio p, ma deve solo sapere l'identificativo del servizio p_id e il valore di hp ( k ); questi dati sono contenuti nel messaggio da instradare. Quindi per fare questa operazione il nodo non ha bisogno né di partecipare al servizio p e nemmeno di conoscere nulla sull'implementazione del servizio p.

Lo stesso modulo, nel nodo destinazione del messaggio, si occupa di ricevere la richiesta del nodo originante e di servirla. Perché il modulo possa servirla, nel modulo deve essere stato registrato il servizio peer-to-peer. Difatti il nodo deve essere partecipante al servizio p. Inoltre il modulo fornisce all'implementazione del servizio p la possibilità di replicare qualsiasi dato che esso memorizza su un numero q di nodi partecipanti al servizio che sarebbero stati i più prossimi destinatari della richiesta in caso di sua assenza.


Il modulo PeerServices si occupa per un nodo appena entrato nella rete di reperire per tutti i servizi a cui il nodo intende partecipare tutti i record che sono di sua pertinenza nel mantenimento del database distribuito, come destinatario principale o come replica.

Requisiti

  • Mappa delle rotte note.
  • Factory per aprire una connessione TCP con un percorso interno ad un proprio g-nodo verso un nodo di cui si conosce l'identificativo interno.

Deliverables

  • Viene definita una classe base astratta (PeerService) che deve essere derivata per implementare ogni specifico servizio peer-to-peer, sia quelli opzionali che quelli non opzionali.

  • Viene definita una classe base astratta (PeerClient) che può aiutare nell'implementazione di una classe da usare come client per un servizio peer-to-peer.

  • Fornisce un metodo per registrare le istanze di classi che rappresentano un servizio a cui il nodo partecipa.
  • Fornisce un metodo (contact_peer) per effettuare una richiesta ad un servizio peer-to-peer. Sono passate al metodo queste informazioni:

    • l'identificativo del servizio,
    • la tupla obiettivo, cioè il risultato di hp ( k ),

    • l'istanza di RemoteCall che rappresenta la richiesta da effettuare,

    • il tempo limite per l'esecuzione della richiesta una volta consegnata all'hash_node.

    Siccome il modulo necessita di conoscere soltanto i servizi a cui il nodo partecipa attivamente, queste informazioni lo abilitano ad effettuare comunque la richiesta; basta che il nodo sappia come interfacciarsi con il servizio. Il metodo restituisce una istanza di ISerializable che può rappresentare il risultato della richiesta o una eccezione prevista dal servizio stesso. Oppure rilancia una eccezione (PeersNoParticipantsInNetworkError) se al momento nessun nodo nella rete partecipa attivamente al servizio.

Classi e interfacce

La mappa delle rotte è un oggetto di cui il modulo conosce l'interfaccia IPeersMapPaths. Tramite essa il modulo può:

  • leggere il numero di livelli della topologia (metodo 'i_peers_get_levels');
  • leggere la gsize di ogni livello (metodo 'i_peers_get_gsize');
  • leggere l'identificativo del proprio nodo a ogni livello (metodo 'i_peers_get_my_pos');
  • leggere il numero di nodi stimato all'interno del proprio g-nodo a ogni livello (metodo 'i_peers_get_nodes_in_my_group');
  • determinare se un certo g-nodo esiste nella rete – cioè se appartiene a domnt) (metodo 'i_peers_exists');

  • ottenere uno stub per inviare un messaggio al miglior gateway verso un certo g-nodo, segnalando opzionalmente se si vuole escludere un certo gateway perché era il passo precedente nell'instradamento del messaggio e / o se si vuole escludere e rimuovere un certo gateway che nel tentativo precedente ha fallito la comunicazione (metodo 'i_peers_gateway').


In alcuni casi sarà necessario realizzare una comunicazione TCP verso un nodo originante di un messaggio. In tali casi si vuole raggiungere il nodo attraverso un percorso interno al proprio g-nodo di un dato livello.

In tutti i casi in cui questo è necessario il dialogo tra i due nodi è molto semplice e prevede sempre uno scambio di richiesta e risposta ad iniziativa del nodo che inizia la connessione. Sarà quindi sufficiente che si ottenga uno stub che realizza la chiamata di un metodo remoto tramite questa connessione TCP.

L'oggetto fornito al modulo a questo scopo implementa l'interfaccia IPeersBackStubFactory, la quale permette di:

  • ottenere uno stub per inviare un messaggio ad un dato nodo mediante connessione TCP interna (metodo 'i_peers_get_tcp_inside').


Tutte le classi che implementano un servizio derivano da PeerService. Questa è una classe astratta definita dal modulo.

La classe base ha un membro p_id che identifica un servizio in tutta la rete. Esso è valorizzato nel costruttore ed è in seguito di sola lettura. L'istanza del servizio è passata come istanza di PeerService al modulo (PeersManager) nella chiamata iniziale al metodo di registrazione e questo la memorizza associandola al suo identificativo.

La classe base ha un membro booleano p_is_optional che dice se il servizio è da considerarsi opzionale. Esso è valorizzato nel costruttore ed è in seguito di sola lettura.

La classe base ha un metodo astratto exec che viene richiamato sull'hash_node che deve servire una richiesta.


La classe PeerClient può essere derivata per implementare il client di un servizio, sia esso opzionale o non opzionale.

La classe derivata, per ogni tipo di richiesta che è prevista dal servizio, ha il compito di produrre l'oggetto RemoteCall che rappresenta la richiesta, di specificare quale sia il tempo massimo di attesa per l'esecuzione, di interpretare l'istanza di ISerializable ricevuta come risposta.

La classe base ha la conoscenza della topologia della rete, cioè il numero di livelli e per ognuno la gsize. Oltre a ciò non necessita di conoscere le posizioni del nodo corrente. Ha inoltre conoscenza dell'identificativo del servizio.

La classe base ha un riferimeno all'istanza di PeersManager che usa per contattare l'hash_node (metodo contact_peer).

Nella classe derivata va definito il calcolo di hp. La funzione hp deve associare ad una chiave k un indirizzo in S, cioè una tupla x̄ = x̄0·x̄1·...·x̄l-1 le cui componenti siano compatibili con la topologia della rete. La classe base non sa come ottenere da una chiave k la tupla x̄, questo procedimento spetta alla classe derivata. Tuttavia molte operazioni saranno uguali nella maggior parte dei servizi. Quindi la classe base cerca di fornire i servizi comuni senza tuttavia essere di impedimento alla classe derivata se vuole usare altre modalità di calcolo. Per fare questo la classe base fornisce:

  • un metodo virtuale 'perfect_tuple' che riceve a parametro la chiave (Object k) e restituisce la tupla x̄.
  • un metodo astratto 'hash_from_key' che riceve a parametro la chiave (Object k) e un intero (top) e restituisce un intero tra 0 e top.

Quando le operazioni del modulo richiedono il calcolo di hp ( k ) su un certo servizio p, il metodo 'perfect_tuple' viene richiamato sull'istanza di PeerService, quindi tale metodo deve essere pubblico.

Se tale metodo non viene ridefinito dalla classe derivata, il suo comportamento è il seguente. L'istanza conosce le dimensioni dei g-nodi ad ogni livello (gsizes) quindi calcola la dimensione dello spazio degli indirizzi validi. Poi richiama il metodo 'hash_from_key' passando oltre alla chiave k il numero massimo dell'hash (la dimensione dello spazio di indirizzi meno uno). In questo metodo la classe derivata deve occuparsi di associare alla chiave un valore di hash (di norma uniformemente distribuito) compreso tra 0 e il valore massimo (inclusi). Questo metodo è demandato alla classe derivata e quindi è definito astratto. Inoltre deve essere usato solo con la modalità sopra descritta, quindi può essere definito protetto.

Poi, nel metodo 'perfect_tuple', l'istanza usa il valore di hash per produrre una tupla x̄ sulla base della sua conoscenza di gsizes.

Se invece la classe derivata ridefinisce il metodo 'perfect_tuple' è libera di calcolare direttamente la tupla x̄ a partire dalla chiave e dalle sue conoscenze. In questo caso, inoltre, può decidere di restituire una tupla con un numero di elementi inferiore al numero di livelli della rete. In questo caso la tupla x̄ = x̄0·x̄1·...·x̄j quando viene passata alla funzione Ht circoscrive la sua ricerca dell'hash_node al g-nodo nj+1 del nodo n che fa la richiesta.

Netsukuku/ita/docs/ModuloPeers/AnalisiFunzionale (last edited 2015-11-14 14:57:23 by lukisi)