OSDN Git Service

clean
[bytom/vapor.git] / toolbar / precog / monitor / monitor.go
index 16ad1d3..3c765d8 100644 (file)
 package monitor
 
 import (
+       // "encoding/binary"
+       // "encoding/hex"
+       "fmt"
        "io/ioutil"
+       "net"
        "os"
+       // "os/user"
+       "strings"
        "time"
 
        "github.com/jinzhu/gorm"
        log "github.com/sirupsen/logrus"
-       dbm "github.com/vapor/database/leveldb"
+       // dbm "github.com/vapor/database/leveldb"
 
-       cfg "github.com/vapor/config"
+       vaporCfg "github.com/vapor/config"
+       "github.com/vapor/crypto/ed25519/chainkd"
+       dbm "github.com/vapor/database/leveldb"
+       "github.com/vapor/event"
        "github.com/vapor/p2p"
        // conn "github.com/vapor/p2p/connection"
+       "github.com/vapor/netsync/chainmgr"
+       "github.com/vapor/netsync/consensusmgr"
+       "github.com/vapor/netsync/peers"
+       "github.com/vapor/p2p/discover/dht"
+       "github.com/vapor/p2p/discover/mdns"
        "github.com/vapor/p2p/signlib"
+       "github.com/vapor/test/mock"
        "github.com/vapor/toolbar/precog/config"
        "github.com/vapor/toolbar/precog/database/orm"
 )
 
 type monitor struct {
-       cfg *config.Config
-       db  *gorm.DB
+       cfg     *config.Config
+       db      *gorm.DB
+       nodeCfg *vaporCfg.Config
+       sw      *p2p.Switch
+       discvCh chan *dht.Node
+       privKey chainkd.XPrv
+       chain   *mock.Chain
+       txPool  *mock.Mempool
 }
 
+// TODO: set myself as SPV?
 func NewMonitor(cfg *config.Config, db *gorm.DB) *monitor {
+       //TODO: for test
+       cfg.CheckFreqSeconds = 1
+
+       tmpDir, err := ioutil.TempDir(".", "vpPrecog")
+       if err != nil {
+               log.Fatalf("failed to create temporary data folder: %v", err)
+       }
+
+       nodeCfg := &vaporCfg.Config{
+               BaseConfig: vaporCfg.DefaultBaseConfig(),
+               P2P:        vaporCfg.DefaultP2PConfig(),
+               Federation: vaporCfg.DefaultFederationConfig(),
+       }
+       nodeCfg.DBPath = tmpDir
+       nodeCfg.ChainID = "mainnet"
+       discvCh := make(chan *dht.Node)
+       privKey, err := signlib.NewPrivKey()
+       if err != nil {
+               log.Fatal(err)
+       }
+
+       chain, txPool, err := mockChainAndPool()
+       if err != nil {
+               log.Fatal(err)
+       }
+
        return &monitor{
-               cfg: cfg,
-               db:  db,
+               cfg:     cfg,
+               db:      db,
+               nodeCfg: nodeCfg,
+               discvCh: discvCh,
+               privKey: privKey.(chainkd.XPrv),
+               chain:   chain,
+               txPool:  txPool,
        }
 }
 
 func (m *monitor) Run() {
-       m.updateBootstrapNodes()
-       go m.discovery()
+       defer os.RemoveAll(m.nodeCfg.DBPath)
+
+       var seeds []string
+       for _, node := range m.cfg.Nodes {
+               seeds = append(seeds, fmt.Sprintf("%s:%d", node.Host, node.Port))
+               if err := m.upSertNode(&node); err != nil {
+                       log.Error(err)
+               }
+       }
+       m.nodeCfg.P2P.Seeds = strings.Join(seeds, ",")
+       if err := m.makeSwitch(); err != nil {
+               log.Fatal(err)
+       }
+
+       go m.discoveryRoutine()
+       go m.collectDiscoveredNodes()
+       go m.connectNodesRoutine()
+       go m.checkStatusRoutine()
+}
+
+func (m *monitor) makeSwitch() error {
+       l, listenAddr := p2p.GetListener(m.nodeCfg.P2P)
+       discv, err := dht.NewDiscover(m.nodeCfg, m.privKey, l.ExternalAddress().Port, m.cfg.NetworkID)
+       if err != nil {
+               return err
+       }
+
+       // no need for lanDiscv, but passing &mdns.LANDiscover{} will cause NilPointer
+       lanDiscv := mdns.NewLANDiscover(mdns.NewProtocol(), int(l.ExternalAddress().Port))
+       sw, err := p2p.NewSwitch(m.nodeCfg, discv, lanDiscv, l, m.privKey, listenAddr, m.cfg.NetworkID)
+       if err != nil {
+               return err
+       }
+
+       m.sw = sw
+       return nil
+}
+
+func (m *monitor) connectNodesRoutine() {
+       // TODO: change name?
        ticker := time.NewTicker(time.Duration(m.cfg.CheckFreqSeconds) * time.Second)
        for ; true; <-ticker.C {
-               // TODO: lock?
-               m.monitorRountine()
+               if err := m.dialNodes(); err != nil {
+                       log.Error(err)
+               }
        }
 }
 
-// create or update: https://github.com/jinzhu/gorm/issues/1307
-func (m *monitor) updateBootstrapNodes() {
-       for _, node := range m.cfg.Nodes {
-               ormNode := &orm.Node{
-                       PublicKey: node.PublicKey.String(),
-                       Alias:     node.Alias,
-                       Host:      node.Host,
-                       Port:      node.Port,
-               }
+func (m *monitor) dialNodes() error {
+       var nodes []*orm.Node
+       if err := m.db.Model(&orm.Node{}).Find(&nodes).Error; err != nil {
+               return err
+       }
 
-               if err := m.db.Where(&orm.Node{PublicKey: ormNode.PublicKey}).
-                       Assign(&orm.Node{
-                               Alias: node.Alias,
-                               Host:  node.Host,
-                               Port:  node.Port,
-                       }).FirstOrCreate(ormNode).Error; err != nil {
+       addresses := make([]*p2p.NetAddress, 0)
+       for i := 0; i < len(nodes); i++ {
+               ips, err := net.LookupIP(nodes[i].Host)
+               if err != nil {
                        log.Error(err)
                        continue
                }
+               if len(ips) == 0 {
+                       log.Errorf("fail to look up ip for %s", nodes[i].Host)
+                       continue
+               }
+
+               address := p2p.NewNetAddressIPPort(ips[0], nodes[i].Port)
+               addresses = append(addresses, address)
        }
+
+       m.sw.DialPeers(addresses)
+       return nil
 }
 
-// TODO:
-// implement logic first, and then refactor
-// /home/gavin/work/go/src/github.com/vapor/
-// p2p/test_util.go
-// p2p/switch_test.go
-func (m *monitor) discovery() {
-       mCfg := &cfg.Config{}
-       // TODO: fix
-       dirPath, err := ioutil.TempDir(".", "")
+func (m *monitor) prepareReactors(peers *peers.PeerSet) error {
+       dispatcher := event.NewDispatcher()
+       // add ConsensusReactor for consensusChannel
+       _ = consensusmgr.NewManager(m.sw, m.chain, peers, dispatcher)
+       fastSyncDB := dbm.NewDB("fastsync", m.nodeCfg.DBBackend, m.nodeCfg.DBDir())
+       // add ProtocolReactor to handle msgs
+       _, err := chainmgr.NewManager(m.nodeCfg, m.sw, m.chain, m.txPool, dispatcher, peers, fastSyncDB)
        if err != nil {
-               log.Fatal(err)
+               return err
        }
-       mCfg.DBPath = dirPath
-       defer os.RemoveAll(dirPath)
 
-       // TODO: fix
-       mCfg.P2P.ListenAddress = "127.0.1.1:0"
-       swPrivKey, err := signlib.NewPrivKey()
-       if err != nil {
+       // TODO: clean up?? only start reactors??
+       m.sw.Start()
+
+       // for label, reactor := range m.sw.GetReactors() {
+       //      log.Debug("start reactor: (%s:%v)", label, reactor)
+       //      if _, err := reactor.Start(); err != nil {
+       //              return
+       //      }
+       // }
+
+       // m.sw.GetSecurity().RegisterFilter(m.sw.GetNodeInfo())
+       // m.sw.GetSecurity().RegisterFilter(m.sw.GetPeers())
+       // if err := m.sw.GetSecurity().Start(); err != nil {
+       //      return
+       // }
+
+       return nil
+}
+
+func (m *monitor) checkStatusRoutine() {
+       peers := peers.NewPeerSet(m.sw)
+       if err := m.prepareReactors(peers); err != nil {
                log.Fatal(err)
        }
 
-       testDB := dbm.NewDB("testdb", "leveldb", dirPath)
-       // initSwitchFunc
-       sw := p2p.MakeSwitch(mCfg, testDB, swPrivKey, initSwitchFunc)
-       sw.Start()
-       defer sw.Stop()
-}
+       ticker := time.NewTicker(time.Duration(m.cfg.CheckFreqSeconds) * time.Second)
+       for ; true; <-ticker.C {
+               for _, reactor := range m.sw.GetReactors() {
+                       for _, peer := range m.sw.GetPeers().List() {
+                               log.Debug("AddPeer %v for reactor %v", peer, reactor)
+                               // TODO: if not in sw
+                               reactor.AddPeer(peer)
+                       }
+               }
 
-func (m *monitor) monitorRountine() error {
-       // TODO: dail nodes, get lantency & best_height
-       // TODO: decide check_height("best best_height" - "confirmations")
-       // TODO: get blockhash by check_height, get latency
-       // TODO: update lantency, active_time and status
-       return nil
+               for _, peerInfo := range peers.GetPeerInfos() {
+                       log.Info(peerInfo)
+               }
+       }
 }