用测试算法训练二进制数,试题,数数

发表时间:2020-03-11

思路:先将十进制数转成二进制,然后计算区间内每个二进制数的1的个数相加即可。

问题描述
给定L,R。统计[L,R]区间内的所有数在二进制下包含的“1”的个数之和。
如5的二进制为101,包含2个“1”。
输入格式
第一行包含2个数L,R
输出格式
一个数S,表示[L,R]区间内的所有数在二进制下包含的“1”的个数之和。
样例输入
2 3
样例输出
3
数据规模和约定
L<=R<=100000;

inlist = list(map(int,input().split()))
start = inlist[0]
end = inlist[1]
s = 0
for i in range(start,end+1):
    # [L,R]区间内的所有数在二进制下包含的“1”的个数之和。
    x = str(bin(i)[2:])
    s += x.count('1')
print(s)

文章来源互联网,如有侵权,请联系管理员删除。邮箱:417803890@qq.com / QQ:417803890

微配音

Python Free

邮箱:417803890@qq.com
QQ:417803890

皖ICP备19001818号-4
© 2019 copyright www.pythonf.cn - All rights reserved

微信扫一扫关注公众号:

联系方式

Python Free