OSDN Git Service

db23d0c56693317f0e2273ad4ef9ba7c260e3df3
[bytom/vapor.git] / toolbar / precog / monitor / monitor.go
1 package monitor
2
3 import (
4         "fmt"
5         "os"
6         "os/user"
7         "strings"
8         "sync"
9
10         "github.com/jinzhu/gorm"
11         log "github.com/sirupsen/logrus"
12
13         vaporCfg "github.com/vapor/config"
14         "github.com/vapor/crypto/ed25519/chainkd"
15         dbm "github.com/vapor/database/leveldb"
16         "github.com/vapor/event"
17         "github.com/vapor/netsync/chainmgr"
18         "github.com/vapor/netsync/consensusmgr"
19         "github.com/vapor/netsync/peers"
20         "github.com/vapor/p2p"
21         "github.com/vapor/p2p/discover/dht"
22         "github.com/vapor/p2p/discover/mdns"
23         "github.com/vapor/p2p/signlib"
24         "github.com/vapor/test/mock"
25         "github.com/vapor/toolbar/precog/config"
26 )
27
28 type monitor struct {
29         *sync.RWMutex
30         cfg     *config.Config
31         db      *gorm.DB
32         nodeCfg *vaporCfg.Config
33         sw      *p2p.Switch
34         privKey chainkd.XPrv
35         chain   *mock.Chain
36         txPool  *mock.Mempool
37         // discvMap maps a node's public key to the node itself
38         discvMap       map[string]*dht.Node
39         dialCh         chan struct{}
40         checkStatusCh  chan struct{}
41         bestHeightSeen uint64
42 }
43
44 func NewMonitor(cfg *config.Config, db *gorm.DB) *monitor {
45         dbPath, err := makePath()
46         if err != nil {
47                 log.WithFields(log.Fields{"err": err}).Fatal("makePath")
48         }
49
50         nodeCfg := &vaporCfg.Config{
51                 BaseConfig: vaporCfg.DefaultBaseConfig(),
52                 P2P:        vaporCfg.DefaultP2PConfig(),
53                 Federation: vaporCfg.DefaultFederationConfig(),
54         }
55         nodeCfg.DBPath = dbPath
56         nodeCfg.ChainID = "mainnet"
57         privKey, err := signlib.NewPrivKey()
58         if err != nil {
59                 log.WithFields(log.Fields{"err": err}).Fatal("NewPrivKey")
60         }
61
62         chain, txPool, err := mockChainAndPool()
63         if err != nil {
64                 log.WithFields(log.Fields{"err": err}).Fatal("mockChainAndPool")
65         }
66
67         return &monitor{
68                 RWMutex:        &sync.RWMutex{},
69                 cfg:            cfg,
70                 db:             db,
71                 nodeCfg:        nodeCfg,
72                 privKey:        privKey.(chainkd.XPrv),
73                 chain:          chain,
74                 txPool:         txPool,
75                 discvMap:       make(map[string]*dht.Node),
76                 dialCh:         make(chan struct{}, 1),
77                 checkStatusCh:  make(chan struct{}, 1),
78                 bestHeightSeen: uint64(0),
79         }
80 }
81
82 func makePath() (string, error) {
83         usr, err := user.Current()
84         if err != nil {
85                 return "", err
86         }
87
88         dataPath := usr.HomeDir + "/.vapor/precog"
89         if err := os.MkdirAll(dataPath, os.ModePerm); err != nil {
90                 return "", err
91         }
92
93         return dataPath, nil
94 }
95
96 func (m *monitor) Run() {
97         var seeds []string
98         for _, node := range m.cfg.Nodes {
99                 seeds = append(seeds, fmt.Sprintf("%s:%d", node.IP, node.Port))
100                 if err := m.upSertNode(&node); err != nil {
101                         log.WithFields(log.Fields{"node": node, "err": err}).Error("upSertNode")
102                 }
103         }
104         m.nodeCfg.P2P.Seeds = strings.Join(seeds, ",")
105         if err := m.makeSwitch(); err != nil {
106                 log.WithFields(log.Fields{"err": err}).Fatal("makeSwitch")
107         }
108
109         m.dialCh <- struct{}{}
110         go m.discoveryRoutine()
111         go m.connectNodesRoutine()
112         go m.checkStatusRoutine()
113 }
114
115 func (m *monitor) makeSwitch() error {
116         l, listenAddr := p2p.GetListener(m.nodeCfg.P2P)
117         discv, err := dht.NewDiscover(m.nodeCfg, m.privKey, l.ExternalAddress().Port, m.cfg.NetworkID)
118         if err != nil {
119                 return err
120         }
121
122         // no need for lanDiscv, but passing &mdns.LANDiscover{} will cause NilPointer
123         lanDiscv := mdns.NewLANDiscover(mdns.NewProtocol(), int(l.ExternalAddress().Port))
124         m.sw, err = p2p.NewSwitch(m.nodeCfg, discv, lanDiscv, l, m.privKey, listenAddr, m.cfg.NetworkID)
125         if err != nil {
126                 return err
127         }
128
129         return nil
130 }
131
132 func (m *monitor) prepareReactors(peers *peers.PeerSet) error {
133         dispatcher := event.NewDispatcher()
134         // add ConsensusReactor for consensusChannel
135         _ = consensusmgr.NewManager(m.sw, m.chain, peers, dispatcher)
136         fastSyncDB := dbm.NewDB("fastsync", m.nodeCfg.DBBackend, m.nodeCfg.DBDir())
137         // add ProtocolReactor to handle msgs
138         if _, err := chainmgr.NewManager(m.nodeCfg, m.sw, m.chain, m.txPool, dispatcher, peers, fastSyncDB); err != nil {
139                 return err
140         }
141
142         for label, reactor := range m.sw.GetReactors() {
143                 log.WithFields(log.Fields{"label": label, "reactor": reactor}).Debug("start reactor")
144                 if _, err := reactor.Start(); err != nil {
145                         return nil
146                 }
147         }
148
149         m.sw.GetSecurity().RegisterFilter(m.sw.GetNodeInfo())
150         m.sw.GetSecurity().RegisterFilter(m.sw.GetPeers())
151         return m.sw.GetSecurity().Start()
152 }
153
154 func (m *monitor) checkStatusRoutine() {
155         peers := peers.NewPeerSet(m.sw)
156         if err := m.prepareReactors(peers); err != nil {
157                 log.WithFields(log.Fields{"err": err}).Fatal("prepareReactors")
158         }
159
160         for range m.checkStatusCh {
161                 for _, peer := range m.sw.GetPeers().List() {
162                         peer.Start()
163                         peers.AddPeer(peer)
164                 }
165                 log.WithFields(log.Fields{"num": len(m.sw.GetPeers().List()), "peers": m.sw.GetPeers().List()}).Info("connected peers")
166
167                 for _, peer := range m.sw.GetPeers().List() {
168                         p := peers.GetPeer(peer.ID())
169                         if p == nil {
170                                 continue
171                         }
172
173                         if err := p.SendStatus(m.chain.BestBlockHeader(), m.chain.LastIrreversibleHeader()); err != nil {
174                                 log.WithFields(log.Fields{"peer": p, "err": err}).Error("SendStatus")
175                                 peers.RemovePeer(p.ID())
176                         }
177                 }
178
179                 for _, peerInfo := range peers.GetPeerInfos() {
180                         if peerInfo.Height > m.bestHeightSeen {
181                                 m.bestHeightSeen = peerInfo.Height
182                         }
183                 }
184                 log.Info("bestHeight: ", m.bestHeightSeen)
185                 m.processPeerInfos(peers.GetPeerInfos())
186
187                 for _, peer := range m.sw.GetPeers().List() {
188                         p := peers.GetPeer(peer.ID())
189                         if p == nil {
190                                 continue
191                         }
192
193                         peers.RemovePeer(p.ID())
194                 }
195                 log.Info("Disonnect all peers.")
196
197                 m.Unlock()
198                 m.dialCh <- struct{}{}
199         }
200 }