akka-typed(8) - CQRS读写分离模式

2024-04-09 04:32

本文主要是介绍akka-typed(8) - CQRS读写分离模式,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

   前面介绍了事件源(EventSource)和集群(cluster),现在到了讨论CQRS的时候了。CQRS即读写分离模式,由独立的写方程序和读方程序组成,具体原理在以前的博客里介绍过了。akka-typed应该自然支持CQRS模式,最起码本身提供了对写方编程的支持,这点从EventSourcedBehavior 可以知道。akka-typed提供了新的EventSourcedBehavior-Actor,极大方便了对persistentActor的应用开发,但同时也给编程者造成了一些限制。如手工改变状态会更困难了、EventSourcedBehavior不支持多层式的persist,也就是说通过persist某些特定的event然后在event-handler程序里进行状态处理是不可能的了。我这里有个例子,是个购物车应用:当完成支付后需要取个快照(snapshot),下面是这个snapshot的代码:

       snapshotWhen {(state,evt,seqNr) => CommandHandler.takeSnapshot(state,evt,seqNr)}
...def takeSnapshot(state: Voucher, evt: Events.Action, lstSeqNr: Long)(implicit pid: PID) = {if (evt.isInstanceOf[Events.PaymentMade]|| evt.isInstanceOf[Events.VoidVoucher.type]|| evt.isInstanceOf[Events.SuspVoucher.type])if (state.items.isEmpty) {log.step(s"#${state.header.num} taking snapshot at [$lstSeqNr] ...")true} elsefalseelsefalse}

判断event类型是没有问题的,因为正是当前的事件,但另一个条件是购物车必须是清空了的。这个有点为难,因为这个状态要依赖这几个event运算的结果才能确定,也就是下一步,但确定结果又需要对购物车内容进行计算,好像是个死循环。在akka-classic里我们可以在判断了event运算结果后,如果需要改变状态就再persist一个特殊的event,然后在这个event的handler进行状态处理。没办法,EventSourcedBehavior不支持多层persist,只有这样做:

      case PaymentMade(acct, dpt, num, ref,amount) =>...writerInternal.lastVoucher = Voucher(vchs, vItems)endVoucher(Voucher(vchs,vItems),TXNTYPE.sales)Voucher(vchs.nextVoucher, List())...   

我只能先吧当前状态保存下来、进行结单运算、然后清空购物车,这样snapshot就可以顺利进行了。

好了,akka的读方编程是通过PersistentQuery实现的。reader的作用就是把event从数据库读出来后再恢复成具体的数据格式。我们从reader的调用了解一下这个应用里reader的实现细节:

    val readerShard = writerInternal.optSharding.get   val readerRef = readerShard.entityRefFor(POSReader.EntityKey, s"$pid.shopId:$pid.posId")readerRef ! Messages.PerformRead(pid.shopid, pid.posid,writerInternal.lastVoucher.header.num,writerInternal.lastVoucher.header.opr,bseq,eseq,txntype,writerInternal.expurl,writerInternal.expacct,writerInternal.exppass)

可以看到这个reader是一个集群分片,sharding-entity。想法是每单完成购买后发个消息给一个entity、这个entity再完成reader功能后自动终止,立即释放出占用的资源。reader-actor的定义如下:

object POSReader extends LogSupport {val EntityKey: EntityTypeKey[Command] = EntityTypeKey[Command]("POSReader")def apply(nodeAddress: String, trace: Boolean): Behavior[Command] = {log.stepOn = traceimplicit var pid: PID = PID("","")Behaviors.supervise(Behaviors.setup[Command] { ctx =>Behaviors.withTimers { timer =>implicit val ec = ctx.executionContextBehaviors.receiveMessage {case PerformRead(shopid, posid, vchnum, opr, bseq, eseq, txntype, xurl, xacct, xpass) =>pid = PID(shopid, posid)log.step(s"POSReader: PerformRead($shopid,$posid,$vchnum,$opr,$bseq,$eseq,$txntype,$xurl,$xacct,$xpass)")(PID(shopid, posid))val futReadSaveNExport = for {txnitems <- ActionReader.readActions(ctx, vchnum, opr, bseq, eseq, trace, nodeAddress, shopid, posid, txntype)_ <- ExportTxns.exportTxns(xurl, xacct, xpass, vchnum, txntype == Events.TXNTYPE.suspend,{ if(txntype == Events.TXNTYPE.voidall)txnitems.map (_.copy(txntype=Events.TXNTYPE.voidall))else txnitems },trace)(ctx.system.toClassic, pid)} yield ()ctx.pipeToSelf(futReadSaveNExport) {case Success(_) => {timer.startSingleTimer(ReaderFinish(shopid, posid, vchnum), readInterval.seconds)StopReader}case Failure(err) =>log.error(s"POSReader:  Error: ${err.getMessage}")timer.startSingleTimer(ReaderFinish(shopid, posid, vchnum), readInterval.seconds)StopReader}Behaviors.samecase StopReader =>Behaviors.samecase ReaderFinish(shopid, posid, vchnum) =>Behaviors.stopped(() => log.step(s"POSReader: {$shopid,$posid} finish reading voucher#$vchnum and stopped")(PID(shopid, posid)))}}}).onFailure(SupervisorStrategy.restart)}

reader就是一个普通的actor。值得注意的是读方程序可能是一个庞大复杂的程序,肯定需要分割成多个模块,所以我们可以按照流程顺序进行模块功能切分:这样下面的模块可能会需要上面模块产生的结果才能继续。记住,在actor中绝对避免阻塞线程,所有的模块都返回Future, 然后用for-yield串起来。上面我们用了ctx.pipeToSelf 在Future运算完成后发送ReaderFinish消息给自己,通知自己停止。

在这个例子里我们把reader任务分成:

1、从数据库读取事件

2、事件重演一次产生状态数据(购物车内容)

3、将形成的购物车内容作为交易单据项目存入数据库

4、向用户提供的restapi输出交易数据

event读取是通过cassandra-persistence-plugin实现的:

    val query =PersistenceQuery(classicSystem).readJournalFor[CassandraReadJournal](CassandraReadJournal.Identifier)// issue query to journalval source: Source[EventEnvelope, NotUsed] =query.currentEventsByPersistenceId(s"${pid.shopid}:${pid.posid}", startSeq, endSeq)// materialize stream, consuming eventsval readActions: Future[List[Any]] = source.runFold(List[Any]()) { (lstAny, evl) => evl.event :: lstAny }

这部分比较简单:定义一个PersistenceQuery,用它产生一个Source,然后run这个Source获取Future[List[Any]]。

重演事件产生交易数据:

    def buildVoucher(actions: List[Any]): List[TxnItem] = {log.step(s"POSReader: read actions: $actions")val (voidtxns,onlytxns) = actions.asInstanceOf[Seq[Action]].pickOut(_.isInstanceOf[Voided])val listOfActions = onlytxns.reverse zip (LazyList from 1)   //zipWithIndexlistOfActions.foreach { case (txn,idx) =>txn.asInstanceOf[Action] match {case Voided(_) =>case ti@_ =>curTxnItem = EventHandlers.buildTxnItem(ti.asInstanceOf[Action],vchState).copy(opr=cshr)if(voidtxns.exists(a => a.asInstanceOf[Voided].seq == idx)) {curTxnItem = curTxnItem.copy(txntype = TXNTYPE.voided, opr=cshr)log.step(s"POSReader: voided txnitem: $curTxnItem")}val vch = EventHandlers.updateState(ti.asInstanceOf[Action],vchState,vchItems,curTxnItem,true)vchState = vch.headervchItems = vch.txnItemslog.step(s"POSReader: built txnitem: ${vchItems.txnitems.head}")}}log.step(s"POSReader: voucher built with state: $vchState, items: ${vchItems.txnitems}")vchItems.txnitems}

重演List[Event],产生了List[TxnItem]。

向数据库里写List[TxnItem]:

  def writeTxnsToDB(vchnum: Int, txntype: Int, bseq: Long, eseq: Long, txns: List[TxnItem])(implicit system: akka.actor.ActorSystem, session: CassandraSession, pid: PID): Future[Seq[TxnItem]] = ???

注意返回结果类型Future[Seq[TxnItem]]。我们用for-yield把这几个动作串起来:

    val txnitems: Future[List[Events.TxnItem]] = for {lst1 <- readActions    //read list from SourcelstTxns <- if (lst1.length < (endSeq -startSeq))    //if imcomplete list read againreadActionselse FastFuture.successful(lst1)items <- FastFuture.successful( buildVoucher(lstTxns) )_ <- JournalTxns.writeTxnsToDB(vchnum,txntype,startSeq,endSeq,items)_ <- session.close(ec)} yield items

注意:这个for返回的Future[List[TxnItem]],是提供给restapi输出功能的。在那里List[TxnItem]会被转换成json作为post的包嵌数据。

现在所有子任务的返回结果类型都是Future了。我们可以再用for来把它们串起来:

             val futReadSaveNExport = for {txnitems <- ActionReader.readActions(ctx, vchnum, opr, bseq, eseq, trace, nodeAddress, shopid, posid, txntype)_ <- ExportTxns.exportTxns(xurl, xacct, xpass, vchnum, txntype == Events.TXNTYPE.suspend,{ if(txntype == Events.TXNTYPE.voidall)txnitems.map (_.copy(txntype=Events.TXNTYPE.voidall))else txnitems },trace)(ctx.system.toClassic, pid)} yield ()

说到EventSourcedBehavior,因为用了cassandra-plugin,忽然想起配置文件里新旧有很大区别。现在这个application.conf是这样的:

akka {loglevel = INFOactor {provider = clusterserialization-bindings {"com.datatech.pos.cloud.CborSerializable" = jackson-cbor}}remote {artery {canonical.hostname = "192.168.11.189"canonical.port = 0}}cluster {seed-nodes = ["akka://cloud-pos-server@192.168.11.189:2551"]sharding {passivate-idle-entity-after = 5 m}}# use Cassandra to store both snapshots and the events of the persistent actorspersistence {journal.plugin = "akka.persistence.cassandra.journal"snapshot-store.plugin = "akka.persistence.cassandra.snapshot"}
}
akka.persistence.cassandra {# don't use autocreate in productionjournal.keyspace = "poc2g"journal.keyspace-autocreate = onjournal.tables-autocreate = onsnapshot.keyspace = "poc2g_snapshot"snapshot.keyspace-autocreate = onsnapshot.tables-autocreate = on
}datastax-java-driver {basic.contact-points = ["192.168.11.189:9042"]basic.load-balancing-policy.local-datacenter = "datacenter1"
}

akka.persitence.cassandra段落里可以定义keyspace名称,这样新旧版本应用可以共用一个cassandra,同时在线。

 

 

这篇关于akka-typed(8) - CQRS读写分离模式的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/887176

相关文章

Java设计模式---迭代器模式(Iterator)解读

《Java设计模式---迭代器模式(Iterator)解读》:本文主要介绍Java设计模式---迭代器模式(Iterator),具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,... 目录1、迭代器(Iterator)1.1、结构1.2、常用方法1.3、本质1、解耦集合与遍历逻辑2、统一

Java 线程安全与 volatile与单例模式问题及解决方案

《Java线程安全与volatile与单例模式问题及解决方案》文章主要讲解线程安全问题的五个成因(调度随机、变量修改、非原子操作、内存可见性、指令重排序)及解决方案,强调使用volatile关键字... 目录什么是线程安全线程安全问题的产生与解决方案线程的调度是随机的多个线程对同一个变量进行修改线程的修改操

MySQL主从复制与读写分离的用法解读

《MySQL主从复制与读写分离的用法解读》:本文主要介绍MySQL主从复制与读写分离的用法,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、主从复制mysql主从复制原理实验案例二、读写分离实验案例安装并配置mycat 软件设置mycat读写分离验证mycat读

Redis分片集群、数据读写规则问题小结

《Redis分片集群、数据读写规则问题小结》本文介绍了Redis分片集群的原理,通过数据分片和哈希槽机制解决单机内存限制与写瓶颈问题,实现分布式存储和高并发处理,但存在通信开销大、维护复杂及对事务支持... 目录一、分片集群解android决的问题二、分片集群图解 分片集群特征如何解决的上述问题?(与哨兵模

Redis Cluster模式配置

《RedisCluster模式配置》:本文主要介绍RedisCluster模式配置,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录分片 一、分片的本质与核心价值二、分片实现方案对比 ‌三、分片算法详解1. ‌范围分片(顺序分片)‌2. ‌哈希分片3. ‌虚

RabbitMQ工作模式中的RPC通信模式详解

《RabbitMQ工作模式中的RPC通信模式详解》在RabbitMQ中,RPC模式通过消息队列实现远程调用功能,这篇文章给大家介绍RabbitMQ工作模式之RPC通信模式,感兴趣的朋友一起看看吧... 目录RPC通信模式概述工作流程代码案例引入依赖常量类编写客户端代码编写服务端代码RPC通信模式概述在R

ShardingSphere之读写分离方式

《ShardingSphere之读写分离方式》:本文主要介绍ShardingSphere之读写分离方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录ShardingSphere-读写分离读写分离mysql主从集群创建 user 表主节点执行见表语句项目代码读写分

SQL Server身份验证模式步骤和示例代码

《SQLServer身份验证模式步骤和示例代码》SQLServer是一个广泛使用的关系数据库管理系统,通常使用两种身份验证模式:Windows身份验证和SQLServer身份验证,本文将详细介绍身份... 目录身份验证方式的概念更改身份验证方式的步骤方法一:使用SQL Server Management S

spring security 超详细使用教程及如何接入springboot、前后端分离

《springsecurity超详细使用教程及如何接入springboot、前后端分离》SpringSecurity是一个强大且可扩展的框架,用于保护Java应用程序,尤其是基于Spring的应用... 目录1、准备工作1.1 引入依赖1.2 用户认证的配置1.3 基本的配置1.4 常用配置2、加密1. 密

Redis高可用-主从复制、哨兵模式与集群模式详解

《Redis高可用-主从复制、哨兵模式与集群模式详解》:本文主要介绍Redis高可用-主从复制、哨兵模式与集群模式的使用,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝... 目录Redis高可用-主从复制、哨兵模式与集群模式概要一、主从复制(Master-Slave Repli