文件1:
#include
sbit PWON=P1^2;
typedef unsigned char Byte;//
typedef unsigned int Word;//
void DelayX1ms(Byte count)
{
Byte i,j;
for(i=0;i
for(j=0;j<120;j++)
;
}
main()
{
PWON=1;
DelayX1ms(1);
PWON=0;
DelayX1ms(1);
}
文件2:
#include
sbit PWON=P1^2;
typedef unsigned char Byte;//
typedef unsigned int Word;//
void DelayX1ms(Word count)
{
Word i,j;
for(i=0;i
for(j=0;j<120;j++)
;
}
main()
{
PWON=1;
DelayX1ms(1);
PWON=0;
DelayX1ms(1);
}
文件1的结果DelayX1ms(1);延时了0.4ms
文件2的结果DelayX1ms(1);延时了1ms
这问题就出来了。有人能合理解释下么?
8位机是的资源还有能力是有限的
在处理一个字节的时候能直接处理
在处理多字节的时候得多次处理
这样代价就上来了
所以...
问题就出来了,呵呵
第二个能够延时1600ms,第一个能吗?
把8位、16位搞清楚了。
8位CPU。处理8位的数据时速度快,16位的数据时,速度慢
真正的原因上面的大侠已经介绍了,但是这样写的delay 函数一定只能用在时间精度要求不高的地方,因为这个主要跟你的MCU的指令速度有关,指令速度还跟很多硬件相关,比如说你的晶振等等,或者你正在执行DELAY,但是这个时候来一个中断,你的delay时间就完全不准了
大于500条指令时间的延时建议用定时器,而不用代码循环。
长时间(例如大于500条指令)的代码循环延时简直就是浪费 MCU 的执行时间,
在稍大一点的应用中就行不通了。
软延时要考虑的太多了。
建议嵌入汇编,这样可能稍微准点。
另外延时前最好把中断啥的关了。。。
恩 恩。谢谢大家阿。只是碰到问题解决一下,没有你们这么深入的研究阿。