- 浏览: 1014797 次
文章分类
最新评论
-
cjh_android:
我想你是对的,至少对于现实是对的,不过对于技术岗位竞争越来越激 ...
程序员的思考--终于确定了自己的技术发展方向 -
dongbiying:
现在情况如何 。。
创业,不能兼职 -
jackyrong:
ie 9 下时,老显示关闭窗口提示,有办法去掉么,就是关闭掉那 ...
jquery右下角弹窗效果 -
lmaxjj:
加点班如果都称得上是累,只能说明还没体会到真正的生活。。
IT男的进化论 -
馨雨轩:
IT男要进化需要先穿越
IT男的进化论
多线程的那点儿事
1. 多线程的那点儿事(基础篇)
多线程编程是现代软件技术中很重要的一个环节。要弄懂多线程,这就要牵涉到多进程?当然,要了解到多进程,就要涉及到操作系统。不过大家也不要紧张,听我慢慢道来。这其中的环节其实并不复杂。
(1)单CPU下的多线程
在没有出现多核CPU之前,我们的计算资源是唯一的。如果系统中有多个任务要处理的话,那么就需要按照某种规则依次调度这些任务进行处理。什么规则呢?可以是一些简单的调度方法,比如说
1)按照优先级调度
2)按照FIFO调度
3)按照时间片调度等等
当然,除了CPU资源之外,系统中还有一些其他的资源需要共享,比如说内存、文件、端口、socket等。既然前面说到系统中的资源是有限的,那么获取这些资源的最小单元体是什么呢,其实就是进程。
举个例子来说,在linux上面每一个享有资源的个体称为task_struct,实际上和我们说的进程是一样的。我们可以看看task_struct(linux0.11代码)都包括哪些内容,
- structtask_struct{
- /*thesearehardcoded-don'ttouch*/
- longstate;/*-1unrunnable,0runnable,>0stopped*/
- longcounter;
- longpriority;
- longsignal;
- structsigactionsigaction[32];
- longblocked;/*bitmapofmaskedsignals*/
- /*variousfields*/
- intexit_code;
- unsignedlongstart_code,end_code,end_data,brk,start_stack;
- longpid,father,pgrp,session,leader;
- unsignedshortuid,euid,suid;
- unsignedshortgid,egid,sgid;
- longalarm;
- longutime,stime,cutime,cstime,start_time;
- unsignedshortused_math;
- /*filesysteminfo*/
- inttty;/*-1ifnotty,soitmustbesigned*/
- unsignedshortumask;
- structm_inode*pwd;
- structm_inode*root;
- structm_inode*executable;
- unsignedlongclose_on_exec;
- structfile*filp[NR_OPEN];
- /*ldtforthistask0-zero1-cs2-ds&ss*/
- structdesc_structldt[3];
- /*tssforthistask*/
- structtss_structtss;
- };
每一个task都有自己的pid,在系统中资源的分配都是按照pid进行处理的。这也就说明,进程确实是资源分配的主体。
这时候,可能有朋友会问了,既然task_struct是资源分配的主体,那为什么又出来thread?为什么系统调度的时候是按照thread调度,而不是按照进程调度呢?原因其实很简单,进程之间的数据沟通非常麻烦,因为我们之所以把这些进程分开,不正是希望它们之间不要相互影响嘛。
假设是两个进程之间数据传输,那么需要如果需要对共享数据进行访问需要哪些步骤呢,
1)创建共享内存
2)访问共享内存->系统调用->读取数据
3)写入共享内存->系统调用->写入数据
要是写个代码,大家可能就更明白了,
- #include<unistd.h>
- #include<stdio.h>
- intvalue=10;
- intmain(intargc,char*argv[])
- {
- intpid=fork();
- if(!pid){
- Value=12;
- return0;
- }
- printf("value=%d\n",value);
- return1;
- }
上面的代码是一个创建子进程的代码,我们发现打印的value数值还是10。尽管中间创建了子进程,修改了value的数值,但是我们发现打印下来的数值并没有发生改变,这就说明了不同的进程之间内存上是不共享的。
那么,如果修改成thread有什么好处呢?其实最大的好处就是每个thread除了享受单独cpu调度的机会,还能共享每个进程下的所有资源。要是调度的单位是进程,那么每个进程只能干一件事情,但是进程之间是需要相互交互数据的,而进程之间的数据都需要系统调用才能应用,这在无形之中就降低了数据的处理效率。
(2)多核CPU下的多线程
没有出现多核之前,我们的CPU实际上是按照某种规则对线程依次进行调度的。在某一个特定的时刻,CPU执行的还是某一个特定的线程。然而,现在有了多核CPU,一切变得不一样了,因为在某一时刻很有可能确实是n个任务在n个核上运行。我们可以编写一个简单的openmp测试一下,如果还是一个核,运行的时间就应该是一样的。
- #include<omp.h>
- #defineMAX_VALUE10000000
- double_test(intvalue)
- {
- intindex;
- doubleresult;
- result=0.0;
- for(index=value+1;index<MAX_VALUE;index+=2)
- result+=1.0/index;
- returnresult;
- }
- voidtest()
- {
- intindex;
- inttime1;
- inttime2;
- doublevalue1,value2;
- doubleresult[2];
- time1=0;
- time2=0;
- value1=0.0;
- time1=GetTickCount();
- for(index=1;index<MAX_VALUE;index++)
- value1+=1.0/index;
- time1=GetTickCount()-time1;
- value2=0.0;
- memset(result,0,sizeof(double)*2);
- time2=GetTickCount();
- #pragmaompparallelfor
- for(index=0;index<2;index++)
- result[index]=_test(index);
- value2=result[0]+result[1];
- time2=GetTickCount()-time2;
- printf("time1=%d,time2=%d\n",time1,time2);
- return;
- }
(3)多线程编程
为什么要多线程编程呢?这其中的原因很多,我们可以举例解决
1)有的是为了提高运行的速度,比如多核cpu下的多线程
2)有的是为了提高资源的利用率,比如在网络环境下下载资源时,时延常常很高,我们可以通过不同的thread从不同的地方获取资源,这样可以提高效率
3)有的为了提供更好的服务,比如说是服务器
4)其他需要多线程编程的地方等等
2. 多线程的那点儿事(之数据同步)
多线程创建其实十分简单,在windows系统下面有很多函数可以创建多线程,比如说_beginthread。我们就可以利用它为我们编写一段简单的多线程代码,
- #include<windows.h>
- #include<process.h>
- #include<stdio.h>
- unsignedintvalue=0;
- voidprint(void*argv)
- {
- while(1){
- printf("&value=%x,value=%d\n",&value,value);
- value++;
- Sleep(1000);
- }
- }
- intmain()
- {
- _beginthread(print,0,NULL);
- _beginthread(print,0,NULL);
- while(1)
- Sleep(0);
- return1;
- }
注意,在VC上面编译的时候,需要打开/MD开关。具体操作为,【project】->【setting】->【c/c++】->Category【CodeGeneration】->【Userun-timelibrary】->【DebugMultithreaded】即可。
通过上面的示例,我们看到作为共享变量的value事实上是可以被所有的线程访问的。这就是线程数据同步的最大优势——方便,直接。因为线程之间除了堆栈空间不一样之外,代码段和数据段都是在一个空间里面的。所以,线程想访问公共数据,就可以访问公共数据,没有任何的限制。
当然,事物都有其两面性。这种对公共资源的访问模式也会导致一些问题。什么问题呢?我们看了就知道了。
现在假设有一个池塘,我们雇两个人来喂鱼。两个人不停地对池塘里面的鱼进行喂食。我们规定在一个人喂鱼的时候,另外一个人不需要再喂鱼,否则鱼一次喂两回就要撑死了。为此,我们安装了一个牌子作为警示。如果一个人在喂鱼,他会把牌子设置为FALSE,那么另外一个人看到这个牌子,就不会继续喂鱼了。等到这个人喂完后,他再把牌子继续设置为TRUE。
如果我们需要把这个故事写成代码,那么怎么写呢?朋友们试试看,
- while(1){
- if(flag==true){
- flag=false;
- do_give_fish_food();
- flag=true;
- }
- Sleep(0);
- }
上面的代码看上去没有问题了,但是大家看看代码的汇编代码,看看是不是存在隐患。因为还会出现两个人同时喂食的情况,
- 23:while(1){
- 004010E8moveax,1
- 004010EDtesteax,eax
- 004010EFjedo_action+56h(00401126)
- 24:if(flag==true){
- 004010F1cmpdwordptr[flag(00433e04)],1
- 004010F8jnedo_action+43h(00401113)
- 25:flag=false;
- 004010FAmovdwordptr[flag(00433e04)],0
- 26:do_give_fish_food();
- 00401104call@ILT+15(do_give_fish_food)(00401014)
- 27:flag=true;
- 00401109movdwordptr[flag(00433e04)],1
- 28:}
- 29:
- 30:Sleep(0);
- 00401113movesi,esp
- 00401115push0
- 00401117calldwordptr[__imp__Sleep@4(004361c4)]
- 0040111Dcmpesi,esp
- 0040111Fcall__chkesp(004011e0)
- 31:}
- 00401124jmpdo_action+18h(004010e8)
- 32:}
我们此时假设有两个线程a和b在不停地进行判断和喂食操作。设置当前flag=true,此时线程a执行到004010F8处时,判断鱼还没有喂食,正准备执行指令004010F8,但是还没有来得及对falg进行设置,此时出现了线程调度。线程b运行到004010F8时,发现当前没有人喂食,所以执行喂食操作。等到b线程喂食结束,运行到00401113的时候,此时又出现了调度。线程a有继续运行,因为之前已经判断了当前还没有喂食,所以线程a继续进行了喂食了操作。所以,可怜的鱼,这一次就连续经历了两次喂食操作,估计有一部分鱼要撑死了。
当然鱼在这里之所以会出现撑死的情况,主要是因为line24和line25之间出现了系统调度。所以,我们在编写程序的时候必须有一个牢固的思想意识,如果缺少必须要的手段,程序可以任何时刻任何地点被调度,那此时公共数据的计算就会出现错误。
那么有没有方法避免这种情况的发生呢?当然有。朋友们可以继续关注下面的博客。
在多线程存在的环境中,除了堆栈中的临时数据之外,所有的数据都是共享的。如果我们需要线程之间正确地运行,那么务必需要保证公共数据的执行和计算是正确的。简单一点说,就是保证数据在执行的时候必须是互斥的。否则,如果两个或者多个线程在同一时刻对数据进行了操作,那么后果是不可想象的。
也许有的朋友会说,不光数据需要保护,代码也需要保护。提出这个观点的朋友只看到了数据访问互斥的表象。在程序的运行空间里面,什么最重要的呢?代码吗?当然不是。代码只是为了数据的访问存在的。数据才是我们一切工作的出发点和落脚点。
那么,有什么办法可以保证在某一时刻只有一个线程对数据进行操作呢?四个基本方法:
(1)关中断
(2)数学互斥方法
(3)操作系统提供的互斥方法
(4)cpu原子操作
为了让大家可以对这四种方法有详细的认识,我们可以进行详细的介绍。
(1)关中断
要让数据在某一时刻只被一个线程访问,方法之一就是停止线程调度就可以了。那么怎样停止线程调度呢?那么关掉时钟中断就可以了啊。在X86里面的确存在这样的两个指令,
- #include<stdio.h>
- intmain()
- {
- __asm{
- cli
- sti
- }
- return1;
- }
其中cli是关中断,sti是开中断。这段代码没有什么问题,可以编过,当然也可以生成执行文件。但是在执行的时候会出现一个异常告警:Unhandled exception in test.exe: 0xC0000096: Privileged Instruction。告警已经说的很清楚了,这是一个特权指令。只有系统或者内核本身才可以使用这个指令。
不过,大家也可以想象一下。因为平常我们编写的程序都是应用级别的程序,要是每个程序都是用这些代码,那不乱了套了。比如说,你不小心安装一个低质量的软件,说不定什么时候把你的中断关了,这样你的网络就断了,你的输入就没有回应了,你的音乐什么都没有了,这样的环境你受的了吗?应用层的软件是千差万别的,软件的水平也是参差不齐的,所以系统不可能相信任何一个私有软件,它相信的只是它自己。
(2)数学方法
假设有两个线程(a、b)正要对一个共享数据进行访问,那么怎么做到他们之间的互斥的呢?其实我们可以这么做,
- unsignedintflag[2]={0};
- unsignedintturn=0;
- voidprocess(unsignedintindex)
- {
- flag[index]=1;
- turn=index;
- while(flag[1-index]&&(turn==index));
- do_something();
- flag[index]=0;
- }
其实,学过操作系统的朋友都知道,上面的算法其实就是Peterson算法,可惜它只能用于两个线程的数据互斥。当然,这个算法还可以推广到更多线程之间的互斥,那就是bakery算法。但是数学算法有两个缺点:
a)占有空间多,两个线程就要flag占两个单位空间,那么n个线程就要n个flag空间,
b)代码编写复杂,考虑的情况比较复杂
(3)系统提供的互斥算法
系统提供的互斥算法其实是我们平时开发中用的最多的互斥工具。就拿windows来说,关于互斥的工具就有临界区、互斥量、信号量等等。这类算法有一个特点,那就是都是依据系统提高的互斥资源,那么系统又是怎么完成这些功能的呢?其实也不难。
系统加锁过程,
- voidLock(HANDLEhLock)
- {
- __asm{cli};
- while(1){
- if(/*锁可用*/){
- /*设定标志,表明当前锁已被占用*/
- __asm{sti};
- return;
- }
- __asm{sti};
- schedule();
- __asm{cli};
- }
- }
系统解锁过程,
- voidUnLock(HANDLEhLock)
- {
- __asm{cli};
- /*设定标志,当前锁可用*/
- __asm{sti};
- }
上面其实讨论的就是一种最简单的系统锁情况。中间没有涉及到就绪线程的压入和弹出过程,没有涉及到资源个数的问题,所以不是很复杂。朋友们仔细看看,应该都可以明白代码表达的是什么意思。
(4)CPU的原子操作
因为在多线程操作当中,有很大一部分是比较、自增、自减等简单操作。因为需要互斥的代码很少,所以使用互斥量、信号量并不合算。因此,CPU厂商为了开发的方便,把一些常用的指令设计成了原子指令,在windows上面也被称为原子锁,常用的原子操作函数有
- InterLockedAdd
- InterLockedExchange
- InterLockedCompareExchange
- InterLockedIncrement
- InterLockedDecrement
- InterLockedAnd
- InterLockedOr
4.
多线程的那点儿事(之自旋锁)
自旋锁是SMP中经常使用到的一个锁。所谓的smp,就是对称多处理器的意思。在工业用的pcb板上面,特别是服务器上面,一个pcb板有多个cpu是很正常的事情。这些cpu相互之间是独立运行的,每一个cpu均有自己的调度队列。然而,这些cpu在内存空间上是共享的。举个例子说,假设有一个数据value = 10,那么这个数据可以被所有的cpu访问。这就是共享内存的本质意义。我们可以看一段Linux 下的的自旋锁代码(kernel 2.6.23,asm-i386/spinlock.h),就可有清晰的认识了,
- staticinlinevoid__raw_spin_lock(raw_spinlock_t*lock)
- {
- asmvolatile("\n1:\t"
- LOCK_PREFIX";decb%0\n\t"
- "jns3f\n"
- "2:\t"
- "rep;nop\n\t"
- "cmpb$0,%0\n\t"
- "jle2b\n\t"
- "jmp1b\n"
- "3:\n\t"
- :"+m"(lock->slock)::"memory");
- }
line 4: 对lock->slock自减,这个操作是互斥的,LOCK_PREFIX保证了此刻只能有一个CPU访问内存
line 5: 判断lock->slock是否为非负数,如果是跳转到3,即获得自旋锁
line 6: 位置符
line 7: lock->slock此时为负数,说明已经被其他cpu抢占了,cpu休息一会,相当于pause指令
line 8: 继续将lock->slock和0比较,
line 9: 判断lock->slock是否小于等于0,如果判断为真,跳转到2,继续休息
line 10: 此时lock->slock已经大于0,可以继续尝试抢占了,跳转到1
line 11: 位置符
上面的操作,除了第4句是cpu互斥操作,其他都不是。所以,我们发现,在cpu之间寻求互斥访问的时候,在某一时刻只有一个内存访问权限。所以,如果其他的cpu之间没有获得访问权限,就会不断地查看当前是否可以再次申请自旋锁了。这个过程中间不会停歇,除非获得访问的权限为止。
总结:
1)在smp上自旋锁是多cpu互斥访问的基础
2)因为自旋锁是自旋等待的,所以处于临界区的代码应尽可能短
3)上面的LOCK_PREFIX,在x86下面其实就是“lock”,gcc下可以编过,朋友们可以自己试试
5.
多线程的那点儿事(之windows锁)
在windows系统中,系统本身为我们提供了很多锁。通过这些锁的使用,一方面可以加强我们对锁的认识,另外一方面可以提高代码的性能和健壮性。常用的锁以下四种:临界区,互斥量,信号量,event。
(1)临界区
临界区是最简单的一种锁。基本的临界区操作有,
- InitializeCriticalSection
- EnterCriticalSection
- LeaveCriticalSection
- DeleteCriticalSection
- EnterCriticalSection(/*...*/)
- do_something();
- LeaveCriticalSection(/*...*/)
(2)互斥锁
互斥锁也是一种锁。和临界区不同的是,它可以被不同进程使用,因为它有名字。同时,获取锁和释放锁的线程必须是同一个线程。常用的互斥锁操作有
- CreateMutex
- OpenMutex
- ReleaseMutex
- WaitForSingleObject(/*...*/);
- do_something();
- ReleaseMutex(/*...*/);
(3)信号量
信号量是使用的最多的一种锁结果,也是最方便的一种锁。围绕着信号量,人们提出了很多数据互斥访问的方案,pv操作就是其中的一种。如果说互斥锁只能对单个资源进行保护,那么信号量可以对多个资源进行保护。同时信号量在解锁的时候,可以被另外一个thread进行解锁操作。目前,常用的信号量操作有,
- CreateSemaphore
- OpenSemaphore
- ReleaseSemaphore
- WaitForSingleObject(/*...*/);
- do_something();
- ReleaseSemaphore(/*...*/);
(4)event对象
event对象是windows下面很有趣的一种锁结果。从某种意义上说,它和互斥锁很相近,但是又不一样。因为在thread获得锁的使用权之前,常常需要main线程调用SetEvent设置一把才可以。关键是,在thread结束之前,我们也不清楚当前thread获得event之后执行到哪了。所以使用起来,要特别小心。常用的event操作有,
- CreateEvent
- OpenEvent
- PulseEvent
- ResetEvent
- SetEvent
对于main thread,应该这么做,
- CreateEvent(/*...*/);
- SetEvent(/*...*/);
- WaitForMultiObjects(hThread,/*...*/);
- CloseHandle(/*...*/);
对于normal thread来说,操作比较简单,
- while(1){
- WaitForSingleObject(/*...*/);
- /*...*/
- }
总结:
(1)关于临界区、互斥区、信号量、event在msdn上均有示例代码
(2)一般来说,使用频率上信号量 > 互斥区 > 临界区 > 事件对象
(3)信号量可以实现其他三种锁的功能,学习上应有所侧重
(4)纸上得来终觉浅,多实践才能掌握它们之间的区别
6.
多线程的那点儿事(之C++锁)
编写程序不容易,编写多线程的程序更不容易。相信编写过多线程的程序都应该有这样的一个痛苦过程,什么样的情况呢?朋友们应该看一下代码就明白了,- voiddata_process()
- {
- EnterCriticalSection();
- if(/*errorhappens*/)
- {
- LeaveCriticalSection();
- return;
- }
- if(/*othererrorhappens*/)
- {
- return;
- }
- LeaveCriticalSection();
- }
那么,有没有可能利用C++的特性,自动处理这种情况呢?还真有。我们看看下面这个代码,
- classCLock
- {
- CRITICAL_SECTION&cs;
- public:
- CLock(CRITICAL_SECTION&lock):cs(lock){
- EnterCriticalSection(&cs);
- }
- ~CLock(){
- LeaveCriticalSection(&cs);
- }
- }
- classProcess
- {
- CRITICAL_SECTIONcs;
- /*otherdata*/
- public:
- Process(){
- InitializeCriticalSection(&cs);
- }
- ~Process(){DeleteCriticalSection(&cs);}
- voiddata_process(){
- CLocklock(cs);
- if(/*errorhappens*/){
- return;
- }
- return;
- }
- }
其实,这就是一个c++的trick。
7.
多线程的那点儿事(之原子锁)
原子锁是多线程编程中的一个特色。然而,在平时的软件编写中,原子锁的使用并不是很多。这其中原因很多,我想主要有两个方面。第一,关于原子锁这方面的内容介绍的比较少;第二,人们在编程上面习惯于已有的方案,如果没有特别的需求,不过贸然修改已存在的代码。毕竟对很多人来说,不求有功,但求无过。保持当前代码的稳定性还是很重要的。其实,早在《多线程数据互斥》这篇博客中,我们就已经介绍过原子锁。本篇博客主要讨论的就是原子锁怎么使用。中间的一些用法只是我个人的一些经验,希望能够抛砖引玉,多听听大家的想法。
(1)查找函数中原子锁
在一些函数当中,有的时候我们需要对满足某种特性的数据进行查找。在传统的单核CPU上,优化的空间比较有限。但是,现在多核CPU已经成了主流配置。所以我们完全可以把这些查找工作分成几个子函数分在几个核上面并行运算。但是,这中间就会涉及到一个问题,那就是对公共数据的访问。传统的访问方式,应该是这样的,
- unsignedintcount=0;
- intfind_data_process()
- {
- if(/*datameetsourstandards*/){
- EnterCriticalSection(&cs);
- count++;
- LeaveCriticalSection(&cs);
- }
- }
我们看到代码中间使用到了锁,那么势必会涉及到系统调用和函数调度。所以,在执行效率上会大打折扣。那么如果使用原子锁呢?
- unsignedintcount=0;
- intfind_data_process()
- {
- if(/*datameetsourstandards*/){
- InterLockedIncrement(&count);
- }
- }
有兴趣的朋友可以做这样一道题目,查看0~0xFFFFFFFF上有多少数可以被3整除?大家也可以验证一下用原子锁代替临界区之后,代码的效率究竟可以提高多少。关于多核多线程的编程,朋友们可以参考《多线程基础篇》这篇博客。
(2)代码段中的原子锁
上面的范例只是介绍了统计功能中的原子锁。那么怎么用原子锁代替传统的系统锁呢?比如说,假设原来的数据访问是这样的,
- voiddata_process()
- {
- EnterCriticalSection(&cs);
- do_something();
- LeaveCriticalSection(&cs);
- }
- unsignedintlock=0;
- voiddata_process()
- {
- while(1==InterLockedCompareExchange(&lock,1,0));
- do_something();
- lock=0;
- }
这里用原子锁代替普通的系统锁,完成的功能其实是一样的。那么这中间有什么区别呢?其实,关键要看do_something要执行多久。打个比方来说,现在我们去买包子,但是买包子的人很多。那怎么办呢?有两个选择,如果卖包子的人手脚麻利,服务一个顾客只要10秒钟,那么即使前面排队的有50个人,我们只要等7、8分钟就可以,这点等的时间还是值得的;但是如果不幸这个卖包子的老板服务一个顾客要1分钟,那就悲催了,假使前面有50个人,那我们就要等50多分钟了。50分钟对我们来说可是不短的一个时间,我们完全可以利用这个时间去买点水果,交交水电费什么的,过了这个时间点再来买包子也不迟。
8.
多线程的那点儿事(之读写锁)
在编写多线程的时候,有一种情况是十分常见的。那就是,有些公共数据修改的机会比较少。相比较改写,它们读的机会反而高的多。通常而言,在读的过程中,往往伴随着查找的操作,中间耗时很长。给这种代码段加锁,会极大地降低我们程序的效率。那么有没有一种方法,可以专门处理这种多读少写的情况呢?有,那就是读写锁。
(1)首先,我们定义一下基本的数据结构。
- typedefstruct_RWLock
- {
- intcount;
- intstate;
- HANDLEhRead;
- HANDLEhWrite;
- }RWLock;
- typedefenum
- {
- STATE_EMPTY=0,
- STATE_READ,
- STATE_WRITE
- };
- RWLock*create_read_write_lock(HANDLEhRead,HANDLEhWrite)
- {
- RWLock*pRwLock=NULL;
- assert(NULL!=hRead&&NULL!=hWrite);
- pRwLock=(RWLock*)malloc(sizeof(RWLock));
- pRwLock->hRead=hRead;
- pRwLock->hWrite=hWrite;
- pRwLock->count=0;
- pRwLock->state=STATE_EMPTY;
- returnpRwLock;
- }
- voidread_lock(RWLock*pRwLock)
- {
- assert(NULL!=pRwLock);
- WaitForSingleObject(pRwLock->hRead,INFINITE);
- pRwLock->counnt++;
- if(1==pRwLock->count){
- WaitForSingleObject(pRwLock->hWrite,INFINITE);
- pRwLock->state=STATE_READ;
- }
- ReleaseMutex(pRwLock->hRead);
- }
- voidwrite_lock(RWLock*pRwLock)
- {
- assert(NULL!=pRwLock);
- WaitForSingleObject(pRwLock->hWrite,INFINITE);
- pRwLock->state=STATE_WRITE;
- }
- voidread_write_unlock(RWLock*pRwLock)
- {
- assert(NULL!=pRwLock);
- if(STATE_READ==pRwLock->state){
- WaitForSingleObject(pRwLock->hRead,INFINITE);
- pRwLock->count--;
- if(0==pRwLock->count){
- pRwLock->state=STATE_EMPTY;
- ReleaseMutex(pRwLock->hWrite);
- }
- ReleaseMutex(pRwLock->hRead);
- }else{
- pRwLock->state=STATE_EMPTY;
- ReleaseMutex(pRwLock->hWrite);
- }
- return;
- }
文章总结:
(1)读写锁的优势只有在多读少写、代码段运行时间长这两个条件下才会效率达到最大化;
(2)任何公共数据的修改都必须在锁里面完成;
(3)读写锁有自己的应用场所,选择合适的应用环境十分重要;
(4)编写读写锁很容易出错,朋友们应该多加练习;
(5)读锁和写锁一定要分开使用,否则达不到效果。
相关推荐
多线程的那点儿事,长时间的经验积累,希望能帮助你
C# 多线程界面假死解决,正确使用多线程 C# 多线程界面假死解决,正确使用多线程 C# 多线程界面假死解决,正确使用多线程 C# 多线程界面假死解决,正确使用多线程 C# 多线程界面假死解决,正确使用多线程 没分的朋友...
多线程的那点儿事
多线程的好处在于可以提高CPU的利用率——任何一个程序员都不希望自己的程序很多时候没事可干,在多线程程序中,一个线程必须等待的时候,CPU可以运行其它的线程而不是等待,这样就大大提高了程序的效率。...
多线程操作实例源码 Windows是一个多任务的系统,如果你使用的是windows 2000及其以上版本,你可以通过任务管理器查看当前系统运行的程序和进程。什么是进程呢?当一个程序开始运行时,它就是一个进程,进程所指...
多线程的那点儿事
多线程的那点儿事[收集].pdf
但是要值得注意的事,如果多线程没调配好可能连单线程的效率都比不上。本次就和大家一起聊一聊单线程多线程的一些需要注意的事项。 知识点 线程也叫轻量级进程,是操作系统能够进行运算调度的最小单位,它被包含在...
多线程类的数据,有助于开发人员了解什么事多线程,从最底层了解多线程技术
前言 前段时间在网上看到了个的面试题,大概...本文主要将从基本的单线程中的Singleton开始,慢慢讲述多线程与Singleton的那些事。 单线程 在单线程下,下面这个是常见的写法: template class Singleton
请高手帮我看一下这个程序是怎么回事,我才接触多线程,不是很了解。。。谢谢
过去,我们利用VB开发多线程的应用程序时,是一件很令人痛苦的事,经常是多线程的程序运行是会变成多错误的程序!但在VB.NET中,这种状况已经大为改观。现在,我们利用VB.NET处理多线程和利用JAVA处理多线程一样简单...
java 多线程及其详解,本案例里面有些比较经典,有些事理解性的东西,要灵活的变通看待。。。。
在Android,这里的线程分为有消息循环的线程和没有消息循环的线程,有消息循环的线程一般都会有一个Looper,这个事android的新概念
本文实例讲述了Python多线程Threading、... 对于IO密集型的程序来说,多线程可以利用读IO的时间去做其他事【IO并不占用CPU,这就好像A买个一份外卖,他只需要等着送过来然后敲A家的门就行了】; 而对于CPU密集型的程
本文主要对Linux下的多线程进行一个入门的介绍,虽然是入门,但是十分详细,希望大家通过本文所述,对Linux多线程编程的概念有一定的了解。具体如下。 1 线程基本知识 进程是资源管理的基本单元,而线程是系统调度的...
播放器开发 2.7.7第五章 多线程架构实现定时生成刷新事件