博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
mysql读取比特币交易数据_如何将Bitcoin比特币区块链数据导入关系数据库
阅读量:5941 次
发布时间:2019-06-19

本文共 9065 字,大约阅读时间需要 30 分钟。

在接触了比特币和区块链后,我一直有一个想法,就是把所有比特币的区块链数据放入到关系数据库(比如SQL Server)中,然后当成一个数据仓库,做做比特币交易数据的各种分析。想法已经很久了,但是一直没有实施。最近正好有点时间,于是写了一个比特币区块链的导出导入程序。

之前我的一篇博客:在区块链上表白——使用C#将一句话放入比特币的区块链上  介绍了怎么发起一笔比特币的交易,今天我们仍然是使用C#+NBitcoin,读取比特币钱包Bitcoin Core下载到本地的全量区块链数据,并将这些数据写入数据库。如果有和我一样想法的朋友,可以参考下面是我的操作过程:

一、准备

我们要解析的是存储在本地硬盘上的Bitcoin Core钱包的全量比特币数据,那么首先就是要下载并安装好Bitcoin Core,下载地址:https://bitcoin.org/en/download 然后就等着这个软件同步区块链数据吧。目前比特币的区块链数据大概130G,所以可能需要好几天,甚至一个星期才能将所有区块链数据同步到本地。当然如果你很早就安装了这个软件,那么就太好了,毕竟要等好几天甚至一个星期,真的很痛苦。

二、建立比特币区块链数据模型

要进行区块链数据的分析,那么必须得对区块链的数据模型了解才行。我大概研究了一下,可以总结出4个实体:区块、交易、输入、输出。而其中的关系是,一个区块对应多个交易,一个交易对应多个输入和多个输出。除了Coinbase的输入外,一笔输入对应另一笔交易中的输出。于是我们可以得出这样的数据模型:

5363e9b97434ba9f6caba2c454b8270c.png

需要特别说明几点的是:

1.TxId是自增的int,我没有用TxHash做Transaction的PK,那是因为TxHash根本就不唯一啊!有好几个不同区块里面的第一笔交易,也就是Coinbase交易是相同的。这其实应该是异常数据,因为相同的TxHash将导致只能花费一次,所以这个矿工杯具了。

2.对于一笔Coinbase 的Transaction,其输入的PreOutTxId是0000000000000000000000000000000000000000000000000000000000000000,而其PreOutIndex是-1,这是一条不存在的TxOutput,所以我并没有建立TXInput和TxOutput的外键关联。

3.对于Block,PreId就是上一个Block的ID,而创世区块的PreId是0000000000000000000000000000000000000000000000000000000000000000,也是一个不存在的BlockId,所以我没有建立Block的自引用外键。

4.有很多字段其实并不是区块链数据结构中的,这些字段是我添加为了接下来方便分析用的。在导入的时候并没有值,需要经过一定的SQL运算才能得到。比如Trans里面的TotalInAmount,TransFee等。

我用的是PowerDesigner,建模完成后,生成SQL语句,即可。这是我的建表SQL:

8f900a89c6347c561fdf2122f13be562.png

961ddebeb323a10fe0623af514929fc1.png

create tableBlock (

Heightint not null,

BlkIdchar(64) not null,

TxCountint not null,

Sizeint not null,

PreIdchar(64) not null,Timestamp datetime not null,

Noncebigint not null,

Difficultydouble precision not null,

Bitschar(64) not null,

Versionint not null,

TxMerkleRootchar(64) not null,constraint PK_BLOCK primary key nonclustered(BlkId)

)go

/*==============================================================*/

/*Index: Block_Height*/

/*==============================================================*/

create unique clustered index Block_Height onBlock (

HeightASC)go

/*==============================================================*/

/*Table: Trans*/

/*==============================================================*/

create tableTrans (

TxIdint not null,

BlkIdchar(64) not null,

TxHashchar(64) not null,

Versionint not null,

InputCountint not null,

OutputCountint not null,

TotalOutAmountbigint not null,

TotalInAmountbigint not null,

TransFeebigint not null,

IsCoinbasebit not null,

IsHeightLockbit not null,

IsTimeLockbit not null,

LockTimeValueint not null,

Sizeint not null,

TransTimedatetime not null,constraint PK_TRANS primary key(TxId)

)go

/*==============================================================*/

/*Index: Relationship_1_FK*/

/*==============================================================*/

create index Relationship_1_FK onTrans (

BlkIdASC)go

/*==============================================================*/

/*Index: Trans_Hash*/

/*==============================================================*/

create index Trans_Hash onTrans (

TxHashASC)go

/*==============================================================*/

/*Table: TxInput*/

/*==============================================================*/

create tableTxInput (

TxIdint not null,

Idxint not null,

Amountbigint not null,

PrevOutTxIdchar(64) not null,

PrevOutIndexint not null,

PaymentScriptLenint not null,

PaymentScriptvarchar(8000) not null,

Addresschar(58) null,constraint PK_TXINPUT primary key(TxId, Idx)

)go

/*==============================================================*/

/*Index: Relationship_2_FK*/

/*==============================================================*/

create index Relationship_2_FK onTxInput (

TxIdASC)go

/*==============================================================*/

/*Table: TxOutput*/

/*==============================================================*/

create tableTxOutput (

TxIdint not null,

Idxint not null,

Amountbigint not null,

ScriptPubKeyLenint not null,

ScriptPubKeyvarchar(8000) not null,

Addresschar(58) null,

IsUnspendablebit not null,

IsPayToScriptHashbit not null,

IsValidbit not null,

IsSpentbit not null,constraint PK_TXOUTPUT primary key(TxId, Idx)

)go

/*==============================================================*/

/*Index: Relationship_3_FK*/

/*==============================================================*/

create index Relationship_3_FK onTxOutput (

TxIdASC)go

alter tableTransadd constraint FK_TRANS_RELATIONS_BLOCK foreign key(BlkId)referencesBlock (BlkId)go

alter tableTxInputadd constraint FK_TXINPUT_RELATIONS_TRANS foreign key(TxId)referencesTrans (TxId)go

alter tableTxOutputadd constraint FK_TXOUTPUT_RELATIONS_TRANS foreign key(TxId)referencesTrans (TxId)go

View Code

三、导出区块链数据为CSV

数据模型有了,接下来我们就是建立对应的表,然后写程序将比特币的Block写入到数据库中。我本来用的是EntityFramework来实现插入数据库的操作。但是后来发现实在太慢,插入一个Block甚至要等10多20秒,这要等到何年何月才能插入完啊!我试了各种方案,比如写原生的SQL,用事务,用LINQToSQL等,性能都很不理想。最后终于找到了一个好办法,那就是直接导出为文本文件(比如CSV格式),然后用SQL Server的Bulk Insert命令来实现批量导入,这是我已知的最快的写入数据库的方法。

解析Bitcoin Core下载下来的所有比特币区块链数据用的还是NBitcoin这个开源库。只需要用到其中的BlockStore 类,即可轻松实现区块链数据的解析。

以下是我将区块链数据解析为我们的Block对象的代码:

8f900a89c6347c561fdf2122f13be562.png

961ddebeb323a10fe0623af514929fc1.png

private static void LoadBlock2DB(string localPath, intstart)

{var store = newBlockStore(localPath, Network.Main);int i = -1;

BlockToCsvHelper helper= newBlockToCsvHelper(height);foreach (var block in store.Enumerate(false))

{

i++;if (i

{continue;

}try{

log.Debug("Start load Block" + i + ":" + block.Item.Header + "from file:" +block.BlockPosition.ToString());var blk = LoadBlock(block, i);//将NBitcoin的Block转换为我们建模的Block对象

helper.WriteBitcoin2Csv(blk);//将我们的Block对象转换为CSV保存

}catch(Exception ex)

{

log.Error("保存Block到数据库时异常,请手动载入,i=" +i, ex);

}

}

Console.WriteLine("--------End-----------");

Console.ReadLine();

}private static Block LoadBlock(StoredBlock block, inti)

{var blk = newBlock()

{

BlkId=block.Item.Header.ToString(),

Difficulty=block.Item.Header.Bits.Difficulty,

Bits=block.Item.Header.Bits.ToString(),

Height=i,

Nonce=block.Item.Header.Nonce,

PreId=block.Item.Header.HashPrevBlock.ToString(),

TxMerkleRoot=block.Item.GetMerkleRoot().ToString(),

Size=block.Item.GetSerializedSize(),

Version=block.Item.Header.Version,

Timestamp=block.Item.Header.BlockTime.UtcDateTime,

TxCount=block.Item.Transactions.Count

};

log.Debug("Transaction Count=" +block.Item.Transactions.Count);foreach (var transaction inblock.Item.Transactions)

{var tx = newTrans()

{

BlkId=blk.BlkId,

TxHash=transaction.GetHash().ToString(),

Version= (int)transaction.Version,

InputCount=transaction.Inputs.Count,

OutputCount=transaction.Outputs.Count,

TotalOutAmount=transaction.TotalOut.Satoshi,

TransTime=blk.Timestamp,

IsCoinbase=transaction.IsCoinBase,

IsHeightLock=transaction.LockTime.IsHeightLock,

IsTimeLock=transaction.LockTime.IsTimeLock,

LockTimeValue= (int)transaction.LockTime.Value,

Size=transaction.GetSerializedSize()

};

blk.Trans.Add(tx);for (var idx = 0; idx < transaction.Inputs.Count; idx++)

{var input =transaction.Inputs[idx];var txInput = newTxInput()

{

PaymentScript=input.ScriptSig.ToString(),

PaymentScriptLen=input.ScriptSig.Length,

PrevOutTxId=input.PrevOut.Hash.ToString(),

PrevOutIndex= (int)input.PrevOut.N,

Trans=tx,

Idx=idx

};if (!tx.IsCoinbase)

{var addr =input.ScriptSig.GetSignerAddress(Network.Main);if (addr != null)

{

txInput.Address=addr.ToString();

}

}if (txInput.PaymentScript.Length > 8000)

{

log.Error("Transaction Input PaymentScript异常,将被截断,TxHash:" +tx.TxHash);

txInput.PaymentScript= txInput.PaymentScript.Substring(0, 7999);

}

tx.TxInput.Add(txInput);

}for (var idx = 0; idx < transaction.Outputs.Count; idx++)

{var output =transaction.Outputs[idx];var txOutput = newTxOutput()

{

Amount=output.Value.Satoshi,

ScriptPubKey=output.ScriptPubKey.ToString(),

ScriptPubKeyLen=output.ScriptPubKey.Length,

Trans=tx,

IsUnspendable=output.ScriptPubKey.IsUnspendable,

IsPayToScriptHash=output.ScriptPubKey.IsPayToScriptHash,

IsValid=output.ScriptPubKey.IsValid,

Idx=idx

};if (txOutput.ScriptPubKey.Length > 8000)

{

log.Error("Transaction Output ScriptPubKey异常,将被截断,TxHash:" +tx.TxHash);

txOutput.ScriptPubKey= txOutput.ScriptPubKey.Substring(0, 7999);

}if (!output.ScriptPubKey.IsUnspendable)

{if(output.ScriptPubKey.IsPayToScriptHash)

{

txOutput.Address=output.ScriptPubKey.GetScriptAddress(Network.Main).ToString();

}else{var addr =output.ScriptPubKey.GetDestinationAddress(Network.Main);if (addr == null)

{var keys =output.ScriptPubKey.GetDestinationPublicKeys();if (keys.Length == 0)

{//异常

log.Warn("Transaction Output异常,TxHash:" +tx.TxHash);

}else{

addr= keys[0].GetAddress(Network.Main);

}

}if (addr != null)

{

txOutput.Address=addr.ToString();

}

}

}

tx.TxOutput.Add(txOutput);

}

}returnblk;

}

View Code

至于WriteBitcoin2Csv方法,就是以一定的格式,把Block、Trans、TxInput、TxOutput这4个对象分别写入4个文本文件中即可。

四、将CSV导入SQL Server

在完成了CSV文件的导出后,接下来就是怎么将CSV文件导入到SQL Server中。这个很简单,只需要执行BULK INSERT命令。比如这是我在测试的时候用到的SQL语句:

bulk insert [Block] from 'F:\temp\blk205867.csv';bulk insert Trans from 'F:\temp\trans205867.csv';bulk insert TxInput from 'F:\temp\input205867.csv';bulk insert TxOutput from 'F:\temp\output205867.csv';

当然在实际的情况中,我并不是这么做的。我是每1000个Block就生成4个csv文件,然后使用C#连接到数据库,执行bulk insert命令。执行完成后再把这生成的4个csv文件删除,然后再循环继续导出下一批1000个Block。因为比特币的区块链数据实在太大了,如果我不分批,那么我的PC机硬盘就不够用了,而且在导入SQL Server的时候我也怀疑能不能导入那么大批量的数据。

最后,附上一张我正在导入中的进程图,已经导了一天了,还没有完成,估计还得再花一、两天时间吧。

aa5d86bae83dc416fcce9b709cfa98d0.png

所有区块链数据都进入数据库以后,就要发挥一下我的想象力,看能够分析出什么有意思的结果了。

转载地址:http://qmltx.baihongyu.com/

你可能感兴趣的文章
linux服务器磁盘陈列
查看>>
python----tcp/ip http
查看>>
我的友情链接
查看>>
第一本docker书学习笔记1-3章
查看>>
一個典型僵尸網絡淺析
查看>>
vmware克隆Centos6.4虚拟机网卡无法启动问题
查看>>
dba学习
查看>>
asterisk配置
查看>>
GA操作步骤和技巧(二)——用户行为分析
查看>>
shell中while循环里使用ssh的注意事项
查看>>
SHELL获取计算机外网ip的几种写法
查看>>
博客正在搬迁中
查看>>
触发器与存储过程的区别
查看>>
我的友情链接
查看>>
centos搭建supervisor
查看>>
linux日志分割
查看>>
Samba再报安全漏洞
查看>>
我的友情链接
查看>>
我的友情链接
查看>>
Spring学习资料之 依赖注入(一)
查看>>