OSDN Git Service

fix deadlock
[bytom/vapor.git] / toolbar / precog / monitor / monitor.go
1 package monitor
2
3 import (
4         "fmt"
5         "io/ioutil"
6         "os"
7         "os/user"
8         "strings"
9         "sync"
10
11         "github.com/jinzhu/gorm"
12         log "github.com/sirupsen/logrus"
13
14         vaporCfg "github.com/vapor/config"
15         "github.com/vapor/crypto/ed25519/chainkd"
16         dbm "github.com/vapor/database/leveldb"
17         "github.com/vapor/event"
18         "github.com/vapor/netsync/chainmgr"
19         "github.com/vapor/netsync/consensusmgr"
20         "github.com/vapor/netsync/peers"
21         "github.com/vapor/p2p"
22         "github.com/vapor/p2p/discover/dht"
23         "github.com/vapor/p2p/discover/mdns"
24         "github.com/vapor/p2p/signlib"
25         "github.com/vapor/test/mock"
26         "github.com/vapor/toolbar/precog/config"
27 )
28
29 type monitor struct {
30         *sync.RWMutex
31         cfg     *config.Config
32         db      *gorm.DB
33         nodeCfg *vaporCfg.Config
34         sw      *p2p.Switch
35         privKey chainkd.XPrv
36         chain   *mock.Chain
37         txPool  *mock.Mempool
38         // discvMap maps a node's public key to the node itself
39         discvMap map[string]*dht.Node
40         discvCh  chan *dht.Node
41         dialCh   chan struct{}
42         // TODO: maybe remove?
43         checkStatusCh chan struct{}
44 }
45
46 // TODO: set myself as SPV?
47 func NewMonitor(cfg *config.Config, db *gorm.DB) *monitor {
48         //TODO: for test
49         cfg.CheckFreqSeconds = 15
50
51         dbPath, err := makePath()
52         if err != nil {
53                 log.Fatal(err)
54         }
55
56         nodeCfg := &vaporCfg.Config{
57                 BaseConfig: vaporCfg.DefaultBaseConfig(),
58                 P2P:        vaporCfg.DefaultP2PConfig(),
59                 Federation: vaporCfg.DefaultFederationConfig(),
60         }
61         nodeCfg.DBPath = dbPath
62         nodeCfg.ChainID = "mainnet"
63         privKey, err := signlib.NewPrivKey()
64         if err != nil {
65                 log.Fatal(err)
66         }
67
68         chain, txPool, err := mockChainAndPool()
69         if err != nil {
70                 log.Fatal(err)
71         }
72
73         return &monitor{
74                 RWMutex:       &sync.RWMutex{},
75                 cfg:           cfg,
76                 db:            db,
77                 nodeCfg:       nodeCfg,
78                 privKey:       privKey.(chainkd.XPrv),
79                 chain:         chain,
80                 txPool:        txPool,
81                 discvMap:      make(map[string]*dht.Node),
82                 discvCh:       make(chan *dht.Node),
83                 dialCh:        make(chan struct{}, 1),
84                 checkStatusCh: make(chan struct{}, 1),
85         }
86 }
87
88 func makePath() (string, error) {
89         usr, err := user.Current()
90         if err != nil {
91                 return "", err
92         }
93
94         dataPath := usr.HomeDir + "/.precog"
95         if err := os.MkdirAll(dataPath, os.ModePerm); err != nil {
96                 return "", err
97         }
98
99         tmpDir, err := ioutil.TempDir(dataPath, "")
100         if err != nil {
101                 return "", err
102         }
103
104         return tmpDir, nil
105 }
106
107 func (m *monitor) Run() {
108         defer os.RemoveAll(m.nodeCfg.DBPath)
109
110         var seeds []string
111         for _, node := range m.cfg.Nodes {
112                 seeds = append(seeds, fmt.Sprintf("%s:%d", node.Host, node.Port))
113                 if err := m.upSertNode(&node); err != nil {
114                         log.Error(err)
115                 }
116         }
117         m.nodeCfg.P2P.Seeds = strings.Join(seeds, ",")
118         if err := m.makeSwitch(); err != nil {
119                 log.Fatal(err)
120         }
121
122         m.dialCh <- struct{}{}
123         var discvWg sync.WaitGroup
124         go m.discoveryRoutine(&discvWg)
125         go m.collectDiscoveredNodes(&discvWg)
126         go m.connectNodesRoutine()
127         go m.checkStatusRoutine()
128 }
129
130 func (m *monitor) makeSwitch() error {
131         l, listenAddr := p2p.GetListener(m.nodeCfg.P2P)
132         discv, err := dht.NewDiscover(m.nodeCfg, m.privKey, l.ExternalAddress().Port, m.cfg.NetworkID)
133         if err != nil {
134                 return err
135         }
136
137         // no need for lanDiscv, but passing &mdns.LANDiscover{} will cause NilPointer
138         lanDiscv := mdns.NewLANDiscover(mdns.NewProtocol(), int(l.ExternalAddress().Port))
139         sw, err := p2p.NewSwitch(m.nodeCfg, discv, lanDiscv, l, m.privKey, listenAddr, m.cfg.NetworkID)
140         if err != nil {
141                 return err
142         }
143
144         m.sw = sw
145         return nil
146 }
147
148 func (m *monitor) prepareReactors(peers *peers.PeerSet) error {
149         dispatcher := event.NewDispatcher()
150         // add ConsensusReactor for consensusChannel
151         _ = consensusmgr.NewManager(m.sw, m.chain, peers, dispatcher)
152         fastSyncDB := dbm.NewDB("fastsync", m.nodeCfg.DBBackend, m.nodeCfg.DBDir())
153         // add ProtocolReactor to handle msgs
154         _, err := chainmgr.NewManager(m.nodeCfg, m.sw, m.chain, m.txPool, dispatcher, peers, fastSyncDB)
155         if err != nil {
156                 return err
157         }
158
159         for label, reactor := range m.sw.GetReactors() {
160                 log.Debugf("start reactor: (%s:%v)", label, reactor)
161                 if _, err := reactor.Start(); err != nil {
162                         return nil
163                 }
164         }
165
166         m.sw.GetSecurity().RegisterFilter(m.sw.GetNodeInfo())
167         m.sw.GetSecurity().RegisterFilter(m.sw.GetPeers())
168         return m.sw.GetSecurity().Start()
169 }
170
171 func (m *monitor) checkStatusRoutine() {
172         peers := peers.NewPeerSet(m.sw)
173         if err := m.prepareReactors(peers); err != nil {
174                 log.Fatal(err)
175         }
176
177         bestHeight := uint64(0)
178         for range m.checkStatusCh {
179                 for _, peer := range m.sw.GetPeers().List() {
180                         peer.Start()
181                         peers.AddPeer(peer)
182                 }
183                 log.Infof("%d connected peers: %v", len(m.sw.GetPeers().List()), m.sw.GetPeers().List())
184
185                 for _, peer := range m.sw.GetPeers().List() {
186                         p := peers.GetPeer(peer.ID())
187                         if p == nil {
188                                 continue
189                         }
190
191                         if err := p.SendStatus(m.chain.BestBlockHeader(), m.chain.LastIrreversibleHeader()); err != nil {
192                                 log.Error(err)
193                                 peers.RemovePeer(p.ID())
194                         }
195                 }
196
197                 for _, peerInfo := range peers.GetPeerInfos() {
198                         if peerInfo.Height > bestHeight {
199                                 bestHeight = peerInfo.Height
200                         }
201                 }
202                 log.Info("bestHeight: ", bestHeight)
203                 m.processPeerInfos(peers.GetPeerInfos())
204
205                 for _, peer := range m.sw.GetPeers().List() {
206                         p := peers.GetPeer(peer.ID())
207                         if p == nil {
208                                 continue
209                         }
210
211                         peers.RemovePeer(p.ID())
212                 }
213                 log.Info("Disonnect all peers.")
214                 m.Unlock()
215                 m.dialCh <- struct{}{}
216         }
217 }