2008年6月29日星期日

ssh 不用输入密码直接登陆

ssh的不用输入密码直接登陆

 先在本机利用ssh-keygen -t rsa或ssh-keygen -t dsa生成id_rsa.pub和id_dsa.pub文件,rsa和dsa是两种不同的加密算法,在实际应用的时,你可以自己选择.

ssh-keygen -t rsa(生成id_rsa.pub)
ssh-keygen -t dsa (生成id_dsa.pub)
生成的文件一般都会在本机的/root/.ssh/下.
我们再把所生成的文件id_dsa.pub或ids.rsa.pub拷贝到目标主机(也就是我们不需要输入密码的机器中去)并改名为:authorized_keys ,
这种我们就可以直接通过ssh到目标主机上去,不需要输入密码.
如果还有其它的机器也需要这样做.也把用ssh-keygent生成的文件拷到目标机器上去.
cat id_rsa.pub >>authorized_keys
cat id_dsa.pub >>authorized.keys


--
6G免费网络U盘: http://www.orbitfiles.com/signup/rleon

2008年6月26日星期四

Code: codecs做编码转换(Python)



---------- Forwarded message ----------
From: Rui Zhang <rui@ustc.edu.cn>
Date: Jun 26, 2008 1:19 PM
Subject: codecs做编码转换
To: r01ustc@gmail.com

python模块之codecs: 自然语言编码转换,
http://hi.baidu.com/python23/blog/item/e3cdf503f3d34d763912bbda.html
2007-06-07 11:54
python对多国语言的处理是支持的很好的,它可以处理现在任意编码的字符,这里深入的研究一下python对多种不同语言的处理。
   有一点需要清楚的是,当python要做编码转换的时候,会借助于内部的编码,转换过程是这样的:
      原有编码 -> 内部编码 -> 目的编码
    python的内部是使用unicode来处理的,但是unicode的使用需要考虑的是它的编码格式有两种,一是UCS-2,它一共有65536个码位,另一种是UCS-4,它有2147483648g个码位。对于这两种格式,python都是支持的,这个是在编译时通过--enable-unicode=ucs2或--enable-unicode=ucs4来指定的。那么我们自己默认安装的python有的什么编码怎么来确定呢?有一个办法,就是通过sys.maxunicode的值来判断:

import sys
print sys.maxunicode

    如果输出的值为65535,那么就是UCS-2,如果输出是1114111就是UCS-4编码。
我们要认识到一点:当一个字符串转换为内部编码后,它就不是str类型了!它是unicode类型:

a = "风卷残云"
print type(a)
b = a.unicode(a, "gb2312")
print type(b)

输出:
<type 'str'>
<type 'unicode'>

这个时候b可以方便的任意转换为其他编码,比如转换为utf-8:

c = b.encode("utf-8")
print c

    c输出的东西看起来是乱码,那就对了,因为是utf-8的字符串。
好了,该说说codecs模块了,它和我上面说的概念是密切相关的。codecs专门用作编码转换,当然,其实通过它的接口是可以扩展到其他关于代码方面的转换的,这个东西这里不涉及。

#-*- encoding: gb2312 -*-
import codecs, sys

print '-'*60
# 创建gb2312编码器
look = codecs.lookup("gb2312")
# 创建utf-8编码器
look2 = codecs.lookup("utf-8")

a = "我爱北京天安门"

print len(a), a
# 把a编码为内部的unicode,
# 但为什么方法名为decode呢,我的理解是把gb2312的字符串解码为unicode
b = look.decode(a)
# 返回的b[0]是数据,b[1]是长度,这个时候的类型是unicode了
print b[1], b[0], type(b[0])
# 把内部编码的unicode转换为gb2312编码的字符串,encode方法会返回一个字符串类型
b2 = look.encode(b[0])
# 发现不一样的地方了吧?转换回来之后,字符串长度由14变为了7!
# 现在的返回的长度才是真正的字数,原来的是字节数
print b2[1], b2[0], type(b2[0])
# 虽然上面返回了字数,但并不意味着用len求b2[0]的长度就是7了,仍然还是14,仅仅是codecs.encode会统计字数
print len(b2[0])

    上面的代码就是codecs的使用,是最常见的用法。另外还有一个问题就是,如果我们处理的文件里的字符编码是其他类型的呢?这个读取进行做处理也需要特殊的处理的。codecs也提供了方法.

#-*- encoding: gb2312 -*-
import codecs, sys

# 用codecs提供的open方法来指定打开的文件的语言编码,它会在读取的时候自动转换为内部unicode
bfile = codecs.open("dddd.txt", 'r', "big5")
#bfile = open("dddd.txt", 'r')

ss = bfile.read()
bfile.close()
# 输出,这个时候看到的就是转换后的结果。如果使用语言内建的open函数来打开文件,这里看到的必定是乱码
print ss, type(ss)

上面这个处理big5的,可以去找段big5编码的文件试试。
www.pythonid.com



--
6G免费网络U盘: http://www.orbitfiles.com/signup/rleon

Code: iconv做语言编码转换(c++)



用iconv做通用的语言编码转换
2007-06-01 22:38
以前我写了一个gb18030到utf-8编码转换的程序,这段代码还是有些问题的,因为现在我需要对任意的两个iconv支持的语言编码做互相转换,比如GB2312,
GBK, GB18030, UTF-8, UTF-16,
BIG5等等,所以才有了这段程序,注释我不加了。目前这段代码是非常的稳定,测试了超过10万行的数十种编码的文本的转换都没有出问题。

#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <iconv.h>

#ifndef ICONV_CONST
# define ICONV_CONST const