分类目录归档:互联网上

做淘宝一段时间的一点感受,淘宝的工作总结

    现在我做淘宝时间还不长,原来几天一个单,现在变成一天几个单,看看发货的单子也有很厚一叠了。好几十个单总有了吧,看着发出去的货,虽然到现在没赚到钱,但是还是有一种成就感。

其实在这段时间做淘宝的实物卖买的时候的遇到的问题还是蛮多的,

1.货源问题,需要找一些合适的货,要多方对比观察,不然进来一个也卖不出去,我就有这样的货压着。

2.物品包装问题,虽然被弄坏的不多吧,但是我发的单也不多呢,今天就接到以为买家打来电话,签收的时候有个灯杆被压的稍微有点扁了。我都感觉已经包装的很细心了,但是还是有这样的问题,可以看出快递公司是怎么在搬货和压货的。

3.物品的售后服务问题,遇到问题的也有几个,由于卖的有个是DIY产品,安装过程中需要细心,本来就很小的电子产品,稍为蛮横点就会弄坏,对方把弄坏了的图发给我,却硬要说东西本来就是坏的,诶。但是我心里想着还是想把淘宝店做好,很客气,很友好的解决了,其实对于和你遇到问题来沟通的买家还是好讲话的,至少是一起来解决问题。这样才能办问题最终双方都和气的解决。

4.对于那些蛮横,眼光极高的买家,其实最忌讳的就是这类买家了,可以说是,非主流,富二代一类的买家,人家都说好的东西,他拿到手上就变成说是差的了,一声不响直接给个中评,根本不来和你解决问题,因为这部分人根本就不会懂得什么叫生活的艰辛,不懂得卖家其中精心付出的那种劳动成果,也不屑与他不同一个层次的人来沟通。其中就碰到了这么一位,收到物品后什么也不说,也不确认,等她想起的时候就过来给你确认,然后就直接给你一个中评,当联系她旺旺,短信,电话根本就不会来理你,因为她觉得这样做是应该的,根本就不会理解人家的那种付出,而只顾自己私人感受。既然你东西不满意,可以联系下退货事宜,但是人家却偏要拿着东西用着,说东西不好,但是没办法,社会是大的,这样的人要来,也没法避开,因为购物之前也不知道对方是怎么样的,只要我对我自己问心无愧,我对得起自己,我想大多数人总还是可以好讲话的。诚心对待,总能解决问题。

5.对于今后发展,快递公司长期合作问题,这个问题也考虑了,由于现在每天发货不多,快递公司也只把你当散户,运费没有有事很多情况下,都是我自己补运费上去的,所以到现在可以说没总的来讲赚到钱,当然现在是初期,赚钱是其次的,口碑先要做好。最近也在尝试着联系不通的快递公司发货,先看这边哪家的服务稍微好点,价钱实惠点的然后找他们长期发货,没有到的地方然后联系其他的快递公司,这个是主要的。但是现在也难将,这边服务好点,但是买家那边送货的服务不行,对买家也会留下一个不好的印象。这个也只能总的来讲了吧,一要服务好,二要速度快,三要价钱便宜,哪里有这么好的事呢,只能综合情况来说。

6.预祝今后的淘宝点能够发展顺利,服务好买家,也能为自己赚到钱,能让买家在我这边买东西开心,当然作为卖家的我更加开心。

mysql数据库my.cnf配置文件详解

 :MySQL-server-community-5.0.85-0.sles10.i586.rpm和MySQL-client-community-5.0.85-0.sles10.i586.rpm

       安装完MySQL后,/etc/my.cnf文件默认是不存在的,可以在/usr/share/doc/packages/MySQL-server-community下找到my-huge.cnf 、my-innodb-heavy-4G.cnf 、my-large.cnf 、my-medium.cnf 、my-small.cnf 等文件.将其中合适你机器配置的文件拷贝到/etc/

       my.cnf的详细的说明:

[mysqld]
port = 3306
serverid = 1
socket = /tmp/mysql.sock
skip-locking
# 避免MySQL的外部锁定,减少出错几率增强稳定性。

skip-name-resolve
禁止MySQL对外部连接进行DNS解析,使用这一选项可以消除MySQL进行DNS解析的时间。但需要注意,如果开启该选项,则所有远程主机连接授权都要使用IP地址方式,否则MySQL将无法正常处理连接请求!

back_log = 384
指定MySQL可能的连接数量。当MySQL主线程在很短的时间内接收到非常多的连接请求,该参数生效,主线程花费很短的时间检查连接并且启动一个新线程。
back_log参数的值指出在MySQL暂时停止响应新请求之前的短时间内多少个请求可以被存在堆栈中。如果系统在一个短时间内有很多连接,则需要增大该参数的值,该参数值指定到来的TCP/IP连接的侦听队列的大小。不同的操作系统在这个队列大小上有它自己的限制。
试图设定back_log高于你的操作系统的限制将是无效的。默认值为50。对于Linux系统推荐设置为小于512的整数。

key_buffer_size = 256M
# key_buffer_size指定用于索引的缓冲区大小,增加它可得到更好的索引处理性能。
对于内存在4GB左右的服务器该参数可设置为256M或384M。
注意:该参数值设置的过大反而会是服务器整体效率降低!

max_allowed_packet = 4M
thread_stack = 256K
table_cache = 128K
sort_buffer_size = 6M
查询排序时所能使用的缓冲区大小。注意:该参数对应的分配内存是每连接独占!如果有100个连接,那么实际分配的总共排序缓冲区大小为100 × 6 = 600MB。所以,对于内存在4GB左右的服务器推荐设置为6-8M。

read_buffer_size = 4M
读查询操作所能使用的缓冲区大小。和sort_buffer_size一样,该参数对应的分配内存也是每连接独享!

join_buffer_size = 8M
联合查询操作所能使用的缓冲区大小,和sort_buffer_size一样,该参数对应的分配内存也是每连接独享!

myisam_sort_buffer_size = 64M
table_cache = 512
thread_cache_size = 64
query_cache_size = 64M
指定MySQL查询缓冲区的大小。可以通过在MySQL控制台执行以下命令观察:

代码:
# > SHOW VARIABLES LIKE ‘%query_cache%’;
# > SHOW STATUS LIKE ‘Qcache%’;如果Qcache_lowmem_prunes的值非常大,则表明经常出现缓冲不够的情况;
如果Qcache_hits的值非常大,则表明查询缓冲使用非常频繁,如果该值较小反而会影响效率,那么可以考虑不用查询缓冲;Qcache_free_blocks,如果该值非常大,则表明缓冲区中碎片很多。

tmp_table_size = 256M
max_connections = 768
指定MySQL允许的最大连接进程数。如果在访问论坛时经常出现Too Many Connections的错误提 示,则需要增大该参数值。

max_connect_errors = 10000000
wait_timeout = 10
指定一个请求的最大连接时间,对于4GB左右内存的服务器可以设置为5-10。

thread_concurrency = 8
该参数取值为服务器逻辑CPU数量×2,在本例中,服务器有2颗物理CPU,而每颗物理CPU又支持H.T超线程,所以实际取值为4 × 2 = 8

skip-networking
开启该选项可以彻底关闭MySQL的TCP/IP连接方式,如果WEB服务器是以远程连接的方式访问MySQL数据库服务器则不要开启该选项!否则将无法正常连接!

Linux SSH shell中ftp自动下载上传文件

FTP自动登录批量下载文件

从ftp服务器192.168.1.171上的/home/data 到本地的/home/databackup

!/bin/bash 
 -v -n 192.168.1.171
user guest 123456 
binary 
cd /home/data 
lcd /home/databackup 
prompt 
mget * 
close 
bye

FTP自动登录批量上传文件

从ftp服务器192.168.1.171上的/home/data 到本地的/home/databackup

#!/bin/bash 
ftp -v -n 192.168.1.171 << END
user guest 123456
binary
hash
cd /home/data
lcd /home/databackup
prompt
mput *
bye
END

 

只能文件夹下的文件,不能下面的子目录,LINUX要批量下载FTP中的文件夹及文件真的有些麻烦。。。。

wget 实现批量下载

断点续传: -c http://…
完全备份一个网站:wget -mrnp http://…

wget是一个命令行工具,用于批量下载文件,支持HTTP和FTP。究竟比其他的工具好在哪里?看看内容吧 🙂

wget基本上所有的Linux版本都自己带了,但是有多少人在用呢?呵呵,如果你没有用过,不妨试试。Windows下面的用户可以使用GNUwin32的项目,wget,基本功能完全一致。好吧,我们来以几个简单的例子看看wget的威力。

如果我们想下载ftp里面某个目录里面的所有文件,我们也可以不用ftp这个笨蛋,呵呵,可以享受cute ftp等图形化工具的拖一个目录的轻松了。如

wget -r ftp://10.8.8.8/movie/

呵呵,等吧!下完了,发觉有些不对劲,怎么出来个10.8.8.8的目录,进去看看,又是一个movie,哦,wget将目录结构和网站标题都给记录下来了,不要??没有问题!比如说还是这个例子

wget -r -nd ftp://10.8.8.8/movie/

结果什么目录都没有了,faint!怎么会这样?呵呵,你如果想要这样就让它这样吧,否则使用

wget -r -nH ftp://10.8.8.8/movie/

恩?movie也不要?OK,那就这样

wget -r -nH –cut-dirs=1 ftp://10.8.8.8/movie/
这有什么用啊?cuteftp比他好用多了,而且,你这断了线能连吗?呵呵,不好意思,可以连

wget -c -r -nH –cut-dirs=1 ftp://10.8.8.8/movie/

但是cuteftp能做下面的事情吗?比如,现在很多网站使用Apache建站,并不提供ftp服务,但是Apache有一个indexing功能,可以提供一个类似于ftp的界面,好多文件我想下啊,怎么办?由于是HTTP协议,CuteFTP无能为力了,倒是flash get等有什么get all这种功能,不知道他们对于目录处理怎么样。但是wget一点问题都没有,不信?我们拿CTAN为例(例子并不恰当,CTAN有FTP服务),我们下载这里面所有的宏包,呵呵

wget -r -k http://www.ctan.org/tex-archive/macros/latex/

-k表示将连接转换为本地连接。但是现在同样有上面的问题啊,那就把你需要的加上吧,另外也许你根本不需要向下走那么多层,比如,我们就要到第二层,那么

wget -r -l2 -k http://www.ctan.org/tex-archive/macros/latex/

现在新的问题是,由于网页有一个排序功能,很讨厌,因为下载的时候把网页重复了好多次,那么我们可使用-A和-R开关控制下载类型,并且可以使用通配符,呵呵,现在随心所欲了吧

wget -r -R “*.htm*\?*” -k http://www.ctan.org/tex-archive/macros/latex/

这次没有那种网页了吧?-R的意义在于拒绝下载匹配类型的文件,-A表示仅仅接受的文件类型,如-A “*.gif”将仅下载gif图片,如果有多个允许或者不允许,可以使用,分开。

那么,我们现在在使用代理服务器,怎么办呢?呵呵,很高兴你选择了wget,你可以使用它的配置文件,环境变量来利用代理。这里推荐使用环境变量,如在 bash里面我们可以把天天用的proxy加到.bash_profile里面,这是Linux标准写法(很多软件都用的,什么apt-get,yum等等)

export http_proxy=http://10.20.30.40:8080
然后,proxy就默认打开了,如果需要暂时关闭,可以使用

wget –proxy=off -r -k http://www.ctan.org/tex-archive/macros/latex/
当然,写一个.wgetrc文件也可以,该文件可以从/usr/local/etc里面找到,里面有很详细的注释,我就不多说了。

下载网页的时候比较麻烦的事情是,有的网页被同时指向了很多遍,那么为了避免多次下载,我们使用

wget -nc -r -k http://www.ctan.org/tex-archive/macros/latex/
可以避免这件事情。为了不被有的连接指向非http://www.ctan.org/tex-archive/macros/latex/内层目录,我们还应该加上

wget -nc -np -r -k http://www.ctan.org/tex-archive/macros/latex/
避免下载非该目录里面的文件,这也避免了到不同的host上面去。当然,如果你希望有这个功能,在多个host之间跳来跳去的下载,可以使用

wget -nc -np -H -r -k http://www.ctan.org/tex-archive/macros/latex/

使得可以在多个host之间span,同时-I和-X可以使得我们仅仅跟踪某些目录或者不跟踪某些目录。如果某些HTML里面你需要的东西不是由<a>这种东西作出来的,你就得使用–follow-tags和–ignore-tags了。

嘿,我有个文件里面都是连接,怎么办?要是不是html你只需要

wget -i your.file

如果是,那也不繁

wget -F -i your.file

Lxadmin免费版安装教程[转]

Lxadmin是一个开源的VPS控制面板。免费、高效是是它的绝对优点。使用无管理服务VPS,选择Lxadmin不仅能降低VPS的使用费用,而且它让你控制VPS变得更加简单。

Lxadmin最新的5.0版支持Linux,未来的6.0将支持Windows。下面介绍一下如何安装使用Lxadmin。
如果使用的VPS的管理界面是HyperVM,从控制界面”Console”下的”Rebuild”可以快速重装系统。另外CentOS- i386-hostinabox就是集成了Lxadmin控制面板的CentOS,快速简单。如果你的主机上没有提供这个版本,而你又想使用免费的Lxadmin,没关系,我来教你。先安装标准的CentOS5,然后用Putty连接终端,输入命令:

复制内容到剪贴板

代码:

$ http://download.lxlabs.com/download/kloxo/production/kloxo-install-master.sh
$ sh ./kloxo-install-master.sh

国内主机可能安装要慢点了,因为是在线安装(更新源在国外),使用美国主机的朋友们很快就能安装完了。安装完后你除了安好Lxadmin,同时也基本安好了Apache、Lighttpd、、Xcache、Bind、Djbdns等一系列服务器软件。下面我们完成后续安装,在终端完成(/*这里面是备注,不要执行*/)。

* yum install php-bcmath /*高精度数学运算组件,默认没安装,MD5运算时用到*/
* yum install  php-mhash
* yum install php-mbstring
* yum check-update /*检查全部更新*/
* yum update /*更新全部更新*/
* yum clean all /*清理全部缓存的安装文件(都安装完了,留着浪费空间啊)*/

OK,Lxadmin面板基本安装完成,可以把终端关闭了。我们来登录Lxadmin,第一次登陆用户名和密码都是admin,

地址:
* https://yourdomain:7777/ /*安全连接,不过默认证书不受IE信任*/
* http://yourdomain:7778/ /*还是用这个普通链接吧*/

mysql日志清理

1、清理mysql遗留的日志文件
首先进入mysql数据库
-u -p
input password。
mysql>purge master logs to ‘pscenter-in.264’;
这样就可以直接将日志清理完毕,只保留最后一个即可。
清理完毕日志后建议将数据库备份一下。
 
2、将查询结果垂直显示
mysql > select * from module \G;
这样就可以垂直显示数据了。
 
3、将mysql日志进行循环
登录mysql的服务器
mysql > flush logs;
mysql > reset master;
这样就可以将日志文件归整到从001开始了。
 
4、快速备份数据量比较大的库
mysqldump -uroot -pwoaini123984 –opt –quick pscenter(库名) > /var/www/dbback/.pscenter20071228.sql
这样能快速导出数据。达到备份数据库。
###########################################################
1、查看日志
mysql>SHOW MASTER LOGS;
此命令显示目前二进制日志的数目。
然后
mysql> PURGE MASTER LOGS TO ‘binary-log.xxx’;
除了命令中给出的日志之后的外,其他的二进制日志全部删除。
具体如下:
PURGE MASTER LOGS
PURGE { MASTER|BINARY } LOGS TO ‘log_name’
PURGE { MASTER|BINARY } LOGS BEFORE ‘date’
BEFORE变量的date自变量可以为’YYYY-MM-DD hh:mm:ss’格式。MASTER和BINARY是同义词。
  例如:
  PURGE MASTER LOGS TO ‘mysql-bin.010’;
  PURGE MASTER LOGS BEFORE ‘2008-07-12 13:00:00’;
2、清理步骤:
  1. 在每个从属服务器上,使用SHOW SLAVE STATUS来检查它正在读取哪个日志。
  2. 使用SHOW MASTER LOGS获得主服务器上的一系列日志。
  3. 在所有的从属服务器中判定最早的日志。这个是目标日志。如果所有的从属服务器是更新的,这是清单上的最后一个日志。
  4. 制作您将要删除的所有日志的备份。(这个步骤是自选的,但是建议采用。)
  5. 清理所有的日志,但是不包括目标日志我
3、恢复
使用mysqlbinlog命令恢复日志
 
# mysqlbinlog -d test /root/mysql/mysql-bin.000001|mysql -uroot -ppassword