Golang 高并发问题的解决
Golang在高并发问题上,由于协程的使用,相对于其他编程语言,已经有了很大的优势,即相同的配置上,Golang可以以更低的代价处理更多的线程,同样的线程数,占用更低的资源!及时这样,只是解决了一部分问题而已,因为在每个协程里,处理逻辑还是会有问题。
高并发时,还是要考虑服务器所能承受的最大压力,数据库读取时的io问题,连接数问题,带宽问题等等
研究了一下并发解决方案,在此记录一下
参考文章:Handling 1 Million Requests per Minute with Go
地址:http://marcio.io/2015/07/handling-1-million-requests-per-minute-with-golang/
代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
|
//================================== // * Name:Jerry // * Tel:18017448610 // * DateTime:2019/2/24 14:02 //================================== package main import ( "github.com/lunny/log" "runtime" "sync" "time" ) //工厂模型 type Factory struct { Wg *sync.WaitGroup //任务监控系统 MaxWorker int //最大机器数 MaxJobs int //最大工作数量 JobQueue chan int //工作队列管道 Quit chan bool //是否关闭机器 } //创建工厂模型 func NewFactory(maxWorker int, wg *sync.WaitGroup) Factory { return Factory{ Wg: wg, //引用任务监控系统 MaxWorker: maxWorker, //机器数量(数量多少,根据服务器性能而定) JobQueue: make(chan int, maxWorker), //工作管道,数量大于等于机器数 Quit: make(chan bool), } } //设置最大订单数量 func (f *Factory) SetMaxJobs(taskNum int) { f.MaxJobs = taskNum } //开始上班 func (f *Factory) Start() { //机器开机,MaxWorker for i := 0; i < f.MaxWorker; i++ { //每一台机器开启后,去工作吧 go func() { //等待下发命令 for { select { case i := <-f.JobQueue: //接到工作,开工! f.doWork(i) case <-f.Quit: log.Println("机器关机") return } } }() } } //分配每个任务到管道中 func (f *Factory) AddTask(taskNum int) { //系统监控任务 +1 f.Wg.Add(1) //分配任务到管道中 f.JobQueue <- taskNum } //模拟耗时工作 func (f *Factory) doWork(taskNum int) { //生产产品的工作 time.Sleep(200 * time.Millisecond) //完成工作报告 f.Wg.Done() //log.Println("完工:", taskNum) } //创建工厂 func Begin() { //配置工作核数 gomaxprocs := runtime.GOMAXPROCS(runtime.NumCPU()) log.Println("核数:", gomaxprocs) //配置监控系统 wg := new(sync.WaitGroup) //开工厂 factory := NewFactory(1000, wg) //订单量 factory.SetMaxJobs(10000) //开始上班 factory.Start() log.Println("开始生产") //讲所有的订单,添加到任务队列 for i := 0; i < factory.MaxJobs; i++ { factory.AddTask(i) } factory.Wg.Wait() log.Println("所有订单任务生产完成") } |
测试代码及结果
上面代码中,MaxWorker的数量很重要,取决于服务器所能承受的压力,当然也不能无限增大,合理数值效率最高(具体多少合适,自己测试)
代码:
1
2
3
|
func Benchmark_Begin(b *testing.B) { Begin() } |
结果:
1000台机器(协程),10000的工作量,我的个人PC测试结果如下:
2019/02/26 16:42:31 核数: 4
2019/02/26 16:42:31 开始生产
2019/02/26 16:42:33 所有订单任务生产完成
goos: windows
goarch: amd64
pkg: day11
Benchmark_hight2-4 1 2035574000 ns/op
PASS
Process finished with exit code 0
总结:
此方法仅仅是在代码层面解决一定的问题,高并发 产生的原因还包括其他原因,如带宽,数据库读取速度等等,还需加大带宽,多级数据库,优化数据的检索等等方法
补充:golang 高并发任务处理方案
这个主要用golang 的chan 和routine属性做的,比很多语言方便多了,可以参考参考
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
|
//任务的请求 type MtaskRequest struct { Ceshi int // [redacted] } //job队列+work池 var ( MaxWorker = os.Getenv("MAX_WORKERS") MaxQueue = os.Getenv("MAX_QUEUE") ) // Job represents the job to be run type Job struct { MtaskRequest MtaskRequest } // A buffered channel that we can send work requests on. // var JobQueue chan Job ---这样申明会卡主,没有初始化 var JobQueue = make(chan Job) // Worker represents the worker that executes the job type Worker struct { WorkerPool chan chan Job JobChannel chan Job quit chan bool } func NewWorker(workerPool chan chan Job) Worker { return Worker{ WorkerPool: workerPool, JobChannel: make(chan Job), quit: make(chan bool)} } // Stop signals the worker to stop listening for work requests. func (w Worker) Stop() { go func() { w.quit <- true }() } type Dispatcher struct { // A pool of workers channels that are registered with the dispatcher WorkerPool chan chan Job maxWorkers int } func NewDispatcher(maxWorkers int) *Dispatcher { pool := make(chan chan Job, maxWorkers) return &Dispatcher{WorkerPool: pool, maxWorkers: maxWorkers} } // Start method starts the run loop for the worker, listening for a quit channel in // case we need to stop it func (w Worker) Start() { go func() { for { // register the current worker into the worker queue. w.WorkerPool <- w.JobChannel select { case <-w.JobChannel: time.Sleep(5 * time.Second) // we have received a work request. fmt.Println("调起worker") case <-w.quit: // we have received a signal to stop return //不能写default } } }() } func (d *Dispatcher) Run() { //启动一定数量的worker fmt.Println("启动一定数量的worker") for i := 0; i < d.maxWorkers; i++ { worker := NewWorker(d.WorkerPool) worker.Start() } go d.dispatch() } //分派任务 func (d *Dispatcher) dispatch() { for { select { case job := <-JobQueue: //接收一个job请求 fmt.Println("JobQueue 收到请求") go func(job Job) { // try to obtain a worker job channel that is available. // this will block until a worker is idle jobChannel := <-d.WorkerPool // dispatch the job to the worker job channel jobChannel <- job }(job) } } } //接收到红包数据 func (this *TaskRedbao) UserGetRedbao(red_id, uid, shop_id, rand_arr, Amoney string) error { fmt.Println("收到 接收到红包数据 http请求") mtaskRequest := MtaskRequest{67} work := Job{MtaskRequest: mtaskRequest} JobQueue <- work return nil } |
以上为个人经验,希望能给大家一个参考,也希望大家多多支持服务器之家。如有错误或未考虑完全的地方,望不吝赐教。
原文链接:https://blog.csdn.net/ming2316780/article/details/87938016