w3cschool手机版,w3cschoolcss

http://www.itjxue.com  2023-01-09 08:19  来源:未知  点击次数: 

W3Cschool手册下载,谁可以分享一个

前言:此版本的软件安装包附加激活教程我可以给您一份,不过仅供个人使用,切勿传播,希望可以帮助您

点击下载W3Cschool手册

手机上怎么编程

这里介绍几个可以在手机上编程的软件,感兴趣的可以下载一下,试着操作一下:

1.Python:这里推荐一个软件—QPython3,集成了Python3解释器、Console控制台和QEdit编辑器,可以直接编辑运行python代码,也可以进行简单的安卓开发,下面我简单介绍一下这个软件的安装和使用:

安装的话,直接在手机应用中搜索就行,如下:

打开软件,终端测试效果如下,就行电脑版的python shell:

QEdit编辑器,编辑完python代码后,可以直接运行:

效果如下:

2.Java:这里推荐一个软件—AIDE,一个Java集成环境,可以直接新建Java项目,进行Java代码的编辑和运行,还可以进行游戏开发,功能强大,内置学习教程,很适合初学者学习掌握,下面我简单介绍一下这个软件的安装和使用:

安装的话,与上面一样,直接在手机应用中搜索就行:

打开软件如下,可以直接新建Java文件,编写Java代码并运行:

当然,也可以直接开发简单的安卓游戏,并直接在手机上安装运行:

游戏效果如下:

3.HTML:这里推荐一个软件—w3cschool编程学院,可以在线浏览查看前端开发的资料,包括html,css,javascript等,同时可以在线编辑代码并运行,是一个很不错的学习前端开发的软件,下面我简单介绍一下这个软件的安装和使用:

安装的话,直接在应用商店中搜索就行:

打开软件,就可以搜索前端编程的资料,如下:

在线编辑运行代码的效果如下:

4.C/C++:这里推荐一个软件—C++编译器(C4droid),一款很不错的C/C++编译器,安装完GCC插件后,可以直接编辑运行C/C++代码,是一款很不错的手机编程软件(这里也可以使用“C语言编译器”这个软件,效果也不错),下面我简单介绍一下这个软件的安装和使用:

安装的话,与上面类似,直接搜就行:

安装完成后,这里需要下载一个GCC插件(编译器),之后才能正常编译运行代码:

?

5.Termux:这是一个高级终端,类似手机版的XShell,可以直接在手机上登录Linux服务器,支持bash,zsh命令,可以编辑和运行C/C++,Python,Ruby等代码,只需要安装对应的插件就行,就像在Linux系统上使用一样,下面我简单介绍一下这个软件的安装和使用:

安装的话,直接在手机应用商店中搜索就行,首次安装,需要耐心等待一会儿:

打开这个软件,界面效果如下,类似xshell一样,可以运行shell命令:

安装完python后,就可以直接运行python代码,当然,其他语言也可以:

就介绍这5个在手机上编程的软件,使用起来都还不错,感兴趣的话,可以在手机上下载一下,尝试一下,当然,如果真想练习编程,建议还是在电脑上进行,调试起来更方便,希望以上分享的内容能对你有所帮助吧,也欢迎大家留言、评论。

python 新浪微博爬虫,求助

0x00. 起因

因为参加学校大学生创新竞赛,研究有关微博博文表达的情绪,需要大量微博博文,而网上无论是国内的某度、csdn,还是国外谷歌、gayhub、codeproject等都找不到想要的程序,没办法只能自己写一个程序了。

ps.在爬盟找到类似的程序,但是是windows下的,并且闭源,而且最终爬取保存的文件用notepad++打开有很多奇怪的问题,所以放弃了。

0x01. 基础知识

本程序由Python写成,所以基本的python知识是必须的。另外,如果你有一定的计算机网络基础,在前期准备时会有少走很多弯路。

对于爬虫,需要明确几点:

1. 对爬取对象分类,可以分为以下几种:第一种是不需要登录的,比如博主以前练手时爬的中国天气网,这种网页爬取难度较低,建议爬虫新手爬这类网页;第二种是需要登录的,如豆瓣、新浪微博,这些网页爬取难度较高;第三种独立于前两种,你想要的信息一般是动态刷新的,如AJAX或内嵌资源,这种爬虫难度最大,博主也没研究过,在此不细举(据同学说淘宝的商品评论就属于这类)。

2. 如果同一个数据源有多种形式(比如电脑版、手机版、客户端等),优先选取较为“纯净的”展现。比如新浪微博,有网页版,也有手机版,而且手机版可以用电脑浏览器访问,这时我优先选手机版新浪微博。

3. 爬虫一般是将网页下载到本地,再通过某些方式提取出感兴趣的信息。也就是说,爬取网页只完成了一半,你还要将你感兴趣的信息从下载下来的html文件中提取出来。这时就需要一些xml的知识了,在这个项目中,博主用的是XPath提取信息,另外可以使用XQuery等等其他技术,详情请访问w3cschool。

4. 爬虫应该尽量模仿人类,现在网站反爬机制已经比较发达,从验证码到禁IP,爬虫技术和反爬技术可谓不断博弈。

0x02. 开始

决定了爬虫的目标之后,首先应该访问目标网页,明确目标网页属于上述几种爬虫的哪种,另外,记录为了得到感兴趣的信息你需要进行的步骤,如是否需要登录,如果需要登录,是否需要验证码;你要进行哪些操作才能获得希望得到的信息,是否需要提交某些表单;你希望得到的信息所在页面的url有什么规律等等。

以下博文以博主项目为例,该项目爬取特定新浪微博用户从注册至今的所有微博博文和根据关键词爬取100页微博博文(大约1000条)。

0x03. 收集必要信息

首先访问目标网页,发现需要登录,进入登录页面如下新浪微博手机版登录页面

注意url后半段有很多形如”%xx”的转义字符,本文后面将会讲到。

从这个页面可以看到,登录新浪微博手机版需要填写账号、密码和验证码。

这个验证码是近期(本文创作于2016.3.11)才需要提供的,如果不需要提供验证码的话,将有两种方法进行登录。

第一种是填写账号密码之后执行js模拟点击“登录”按钮,博主之前写过一个Java爬虫就是利用这个方法,但是现在找不到工程了,在此不再赘述。

第二种需要一定HTTP基础,提交包含所需信息的HTTP POST请求。我们需要Wireshark 工具来抓取登录微博时我们发出和接收的数据包。如下图我抓取了在登录时发出和接收的数据包Wireshark抓取结果1

在搜索栏提供搜索条件”http”可得到所有http协议数据包,右侧info显示该数据包的缩略信息。图中蓝色一行是POST请求,并且info中有”login”,可以初步判断这个请求是登录时发出的第一个数据包,并且这个180.149.153.4应该是新浪微博手机版登录认证的服务器IP地址,此时我们并没有任何的cookie。

在序号为30是数据包中有一个从该IP发出的HTTP数据包,里面有四个Set-Cookie字段,这些cookie将是我们爬虫的基础。

Wireshark抓取结果2

早在新浪微博服务器反爬机制升级之前,登录是不需要验证码的,通过提交POST请求,可以拿到这些cookie,在项目源码中的TestCookie.py中有示例代码。

ps.如果没有wireshark或者不想这么麻烦的话,可以用浏览器的开发者工具,以chrome为例,在登录前打开开发者工具,转到Network,登录,可以看到发出和接收的数据,登录完成后可以看到cookies,如下图chrome开发者工具

接下来访问所需页面,查看页面url是否有某种规律。由于本项目目标之一是获取某用户的全部微博,所以直接访问该用户的微博页面,以央视新闻 为例。

央视新闻1

图为央视新闻微博第一页,观察该页面的url可以发现,新浪微博手机版的微博页面url组成是 “weibo.cn/(displayID)?page=(pagenum)” 。这将成为我们爬虫拼接url的依据。

接下来查看网页源码,找到我们希望得到的信息的位置。打开浏览器开发者工具,直接定位某条微博,可以发现它的位置,如下所示。

xpath

观察html代码发现,所有的微博都在div标签里,并且这个标签里有两个属性,其中class属性为”c”,和一个唯一的id属性值。得到这个信息有助于将所需信息提取出来。

另外,还有一些需要特别注意的因素

* 微博分为原创微博和转发微博

* 按照发布时间至当前时间的差距,在页面上有”MM分钟前”、”今天HH:MM”、”mm月dd日 HH:MM”、”yyyy-mm-dd HH:MM:SS”等多种显示时间的方式* 手机版新浪微博一个页面大约显示10条微博,所以要注意对总共页数进行记录以上几点都是细节,在爬虫和提取的时候需要仔细考虑。

0x04. 编码

1.爬取用户微博

本项目开发语言是Python 2.7,项目中用了一些第三方库,第三方库可以用pip的方法添加。

既然程序自动登录的想法被验证码挡住了,想要访问特定用户微博页面,只能使用者提供cookies了。

首先用到的是Python的request模块,它提供了带cookies的url请求。

import request

print request.get(url, cookies=cookies).content使用这段代码就可以打印带cookies的url请求页面结果。

首先取得该用户微博页面数,通过检查网页源码,查找到表示页数的元素,通过XPath等技术提取出页数。

页数

项目使用lxml模块对html进行XPath提取。

首先导入lxml模块,在项目里只用到了etree,所以from lxml import etree

然后利用下面的方法返回页数

def getpagenum(self):

url = self.geturl(pagenum=1)

html = requests.get(url, cookies=self.cook).content # Visit the first page to get the page number.

selector = etree.HTML(html)

pagenum = selector.xpath('//input[@name="mp"]/@value')[0]

return int(pagenum)

接下来就是不断地拼接url-访问url-下载网页。

需要注意的是,由于新浪反爬机制的存在,同一cookies访问页面过于“频繁”的话会进入类似于“冷却期”,即返回一个无用页面,通过分析该无用页面发现,这个页面在特定的地方会出现特定的信息,通过XPath技术来检查这个特定地方是否出现了特定信息即可判断该页面是否对我们有用。

def ispageneeded(html):

selector = etree.HTML(html)

try:

title = selector.xpath('//title')[0]

except:

return False

return title.text != '微博广场' and title.text != '微博'

如果出现了无用页面,只需简单地重新访问即可,但是通过后期的实验发现,如果长期处于过频访问,返回的页面将全是无用页面,程序也将陷入死循环。为了避免程序陷入死循环,博主设置了尝试次数阈值trycount,超过这个阈值之后方法自动返回。

下面代码片展示了单线程爬虫的方法。

def startcrawling(self, startpage=1, trycount=20):

attempt = 0

try:

os.mkdir(sys.path[0] + '/Weibo_raw/' + self.wanted)except Exception, e:

print str(e)

isdone = False

while not isdone and attempt trycount:

try:

pagenum = self.getpagenum()

isdone = True

except Exception, e:

attempt += 1

if attempt == trycount:

return False

i = startpage

while i = pagenum:

attempt = 0

isneeded = False

html = ''

while not isneeded and attempt trycount:

html = self.getpage(self.geturl(i))

isneeded = self.ispageneeded(html)

if not isneeded:

attempt += 1

if attempt == trycount:

return False

self.savehtml(sys.path[0] + '/Weibo_raw/' + self.wanted + '/' + str(i) + '.txt', html)print str(i) + '/' + str(pagenum - 1)

i += 1

return True

考虑到程序的时间效率,在写好单线程爬虫之后,博主也写了多线程爬虫版本,基本思想是将微博页数除以线程数,如一个微博用户有100页微博,程序开10个线程,那么每个线程只负责10个页面的爬取,其他基本思想跟单线程类似,只需仔细处理边界值即可,在此不再赘述,感兴趣的同学可以直接看代码。另外,由于多线程的效率比较高,并发量特别大,所以服务器很容易就返回无效页面,此时trycount的设置就显得更重要了。博主在写这篇微博的时候,用一个新的cookies,多线程爬取现场测试了一下爬取北京邮电大学的微博,3976条微博全部爬取成功并提取博文,用时仅15s,实际可能跟cookies的新旧程度和网络环境有关,命令行设置如下,命令行意义在项目网址里有说明python main.py _T_WM=xxx; SUHB=xxx; SUB=xxx; gsid_CTandWM=xxx u bupt m 20 20爬取的工作以上基本介绍结束,接下来就是爬虫的第二部分,解析了。由于项目中提供了多线程爬取方法,而多线程一般是无序的,但微博博文是依靠时间排序的,所以项目采用了一种折衷的办法,将下载完成的页面保存在本地文件系统,每个页面以其页号为文件名,待爬取的工作结束后,再遍历文件夹内所有文件并解析。

通过前面的观察,我们已经了解到微博博文存在的标签有什么特点了,利用XPath技术,将这个页面里所有有这个特点的标签全部提取出来已经不是难事了。

在这再次提醒,微博分为转发微博和原创微博、时间表示方式。另外,由于我们的研究课题仅对微博文本感兴趣,所以配图不考虑。

def startparsing(self, parsingtime=datetime.datetime.now()):

basepath = sys.path[0] + '/Weibo_raw/' + self.uidfor filename in os.listdir(basepath):

if filename.startswith('.'):

continue

path = basepath + '/' + filename

f = open(path, 'r')

html = f.read()

selector = etree.HTML(html)

weiboitems = selector.xpath('//div[@class="c"][@id]')for item in weiboitems:

weibo = Weibo()

weibo.id = item.xpath('./@id')[0]

cmt = item.xpath('./div/span[@class="cmt"]')if len(cmt) != 0:

weibo.isrepost = True

weibo.content = cmt[0].text

else:

weibo.isrepost = False

ctt = item.xpath('./div/span[@class="ctt"]')[0]

if ctt.text is not None:

weibo.content += ctt.text

for a in ctt.xpath('./a'):

if a.text is not None:

weibo.content += a.text

if a.tail is not None:

weibo.content += a.tail

if len(cmt) != 0:

reason = cmt[1].text.split(u'\xa0')

if len(reason) != 1:

weibo.repostreason = reason[0]

ct = item.xpath('./div/span[@class="ct"]')[0]

time = ct.text.split(u'\xa0')[0]

weibo.time = self.gettime(self, time, parsingtime)self.weibos.append(weibo.__dict__)

f.close()

方法传递的参数parsingtime的设置初衷是,开发前期爬取和解析可能不是同时进行的(并不是严格的“同时”),微博时间显示是基于访问时间的,比如爬取时间是10:00,这时爬取到一条微博显示是5分钟前发布的,但如果解析时间是10:30,那么解析时间将错误,所以应该讲解析时间设置为10:00。到后期爬虫基本开发完毕,爬取工作和解析工作开始时间差距降低,时间差将是爬取过程时长,基本可以忽略。

解析结果保存在一个列表里,最后将这个列表以json格式保存到文件系统里,删除过渡文件夹,完成。

def save(self):

f = open(sys.path[0] + '/Weibo_parsed/' + self.uid + '.txt', 'w')jsonstr = json.dumps(self.weibos, indent=4, ensure_ascii=False)f.write(jsonstr)

f.close()

2.爬取关键词

同样的,收集必要的信息。在微博手机版搜索页面敲入”python”,观察url,研究其规律。虽然第一页并无规律,但是第二页我们发现了规律,而且这个规律可以返回应用于第一页第一页

第二页

应用后第一页

观察url可以发现,对于关键词的搜索,url中的变量只有keyword和page(事实上,hideSearchFrame对我们的搜索结果和爬虫都没有影响),所以在代码中我们就可以对这两个变量进行控制。

另外,如果关键词是中文,那么url就需要对中文字符进行转换,如我们在搜索框敲入”开心”并搜索,发现url如下显示搜索开心

但复制出来却为

;keyword=%E5%BC%80%E5%BF%83page=1幸好,python的urllib库有qoute方法处理中文转换的功能(如果是英文则不做转换),所以在拼接url前使用这个方法处理一下参数。

另外,考虑到关键词搜索属于数据收集阶段使用的方法,所以在此只提供单线程下载网页,如有多线程需要,大家可以按照多线程爬取用户微博的方法自己改写。最后,对下载下来的网页进行提取并保存(我知道这样的模块设计有点奇怪,打算重(xin)构(qing)时(hao)时再改,就先这样吧)。

def keywordcrawling(self, keyword):

realkeyword = urllib.quote(keyword) # Handle the keyword in Chinese.

try:

os.mkdir(sys.path[0] + '/keywords')

except Exception, e:

print str(e)

weibos = []

try:

highpoints = re.compile(u'[\U00010000-\U0010ffff]') # Handle emoji, but it seems doesn't work.

except re.error:

highpoints = re.compile(u'[\uD800-\uDBFF][\uDC00-\uDFFF]')pagenum = 0

isneeded = False

while not isneeded:

html = self.getpage(';page=1' % realkeyword)isneeded = self.ispageneeded(html)

if isneeded:

selector = etree.HTML(html)

try:

pagenum = int(selector.xpath('//input[@name="mp"]/@value')[0])except:

pagenum = 1

for i in range(1, pagenum + 1):

try:

isneeded = False

while not isneeded:

html = self.getpage(';page=%s' % (realkeyword, str(i)))isneeded = self.ispageneeded(html)

selector = etree.HTML(html)

weiboitems = selector.xpath('//div[@class="c"][@id]')for item in weiboitems:

cmt = item.xpath('./div/span[@class="cmt"]')if (len(cmt)) == 0:

ctt = item.xpath('./div/span[@class="ctt"]')[0]

if ctt.text is not None:

text = etree.tostring(ctt, method='text', encoding="unicode")tail = ctt.tail

if text.endswith(tail):

index = -len(tail)

text = text[1:index]

text = highpoints.sub(u'\u25FD', text) # Emoji handling, seems doesn't work.

weibotext = text

weibos.append(weibotext)

print str(i) + '/' + str(pagenum)

except Exception, e:

print str(e)

f = open(sys.path[0] + '/keywords/' + keyword + '.txt', 'w')try:

f.write(json.dumps(weibos,indent=4,ensure_ascii=False))except Exception,ex:

print str(ex)

finally:

f.close()

博主之前从未写过任何爬虫程序,为了获取新浪微博博文,博主先后写了3个不同的爬虫程序,有Python,有Java,爬虫不能用了是很正常的,不要气馁,爬虫程序和反爬机制一直都在不断博弈中,道高一尺魔高一丈。

另. 转载请告知博主,如果觉得博主帅的话就可以不用告知了

如何用手机进行编程?有哪些值得推荐的软件?

手机上可以编程的软件其实有很多,有付费的也有免费的,这里简单介绍几个免费的手机编程软件,主要分为C/C++、Java、Python、Html和Linux5个方面,感兴趣的朋友可以自己下载尝试一下,主要内容如下:

这里介绍一个手机软件—C++编译器,可以直接编辑运行C/C++代码,代码高亮,自带有语法检查功能,使用起来非常不错,下面我简单介绍一下这个软件:

1.首先,安装C++编译器,这个直接在手机应用商店中搜索就行,如下,大概也就2.6兆左右,直接下载安装:

2.安装完成后,我们就可以直接编写C语言代码了,效果如下,关键字高显亮,还可以自动进行语法检查:

自带有简单的TCC编译器,可以直接编译运行C语言程序,如下:

3.这里你也编写C++程序,效果如下,只不过不能直接编译运行,需要先安装G++插件,才能正常运行:

这里介绍一个手机软件—AIDE,相当于手机上的Java开发环境,可以直接编辑运行Java程序,还可以进行简单的安卓开发,下面我简单介绍一下这个软件:

1.首先,安装AIDE集成开发环境,这个也直接在手机商店中搜索就行,如下:

2.安装完成后,我们直接新建Java项目,之后就可以直接编写Java程序了,效果如下,这里支持语法提示、检查和自动补全功能, 使用起来非常不错:

点击运行这个Java程序,效果如下:

3.这里也可以编写一些简单的安卓程序,效果如下,而且官方自带有教学入门实例,非常适合初学者学习和掌握:

程序运行效果如下:

这里介绍一个手机软件—QPython3,相当于手机上的Python3集成开发环境,自带有Python3解释器,支持命令行和文本编程两种方式,下面我简单介绍一下这个软件:

1.首先,安装QPython3,这个与上面的软件一样,直接在手机应用中搜索就行,如下:

2.安装成功后,打开这个软件,点击主界面中的终端,就可以直接进入到python命令行,一行命令一行输出,效果如下:

3.这里你也可以先使用QEdit编辑器编辑Python程序,然后直接点击运行,效果是一样的,如下:

这里介绍一个手机软件—w3cschool编程学院,可以直接在线编辑和运行Html代码,使用起来非常方便,下面我简单介绍一下这个软件:

1.首先,下载安装w3cschool编程学院,这个也直接搜索就行,如下:

2.安装成功后,打开这个软件,直接搜索Html,就可以找到所有的Html资料和教程,这里我们点击进去,就可以直接查看所有资料,如下:

每一章节都有详细介绍和示例,非常适合初学者学习;

3.这里你也可以在线编辑运行Html代码,非常方便,效果如下:

这里介绍两个手机软件—Termux和Termius,这两个软件都相当于手机上的Linux SSH客户端,可以直接远程连接Linux,执行相关操作,下面我简单介绍一下这2个软件:

1.首先,安装Termux,这个直接搜索就行,如下,不大,直接下载安装:

2.安装完成后,打开这个软件,我们就可以直接执行Bash命令,效果如下:

3.如果你需要远程连接Linux的话,可以先安装ssh命令,之后就可以远程登录Linux服务器了,效果如下:

1.首先,安装Termius,这个也直接搜索就行,如下:

2.打开这个软件,默认会有一个本地的终端连接,可以执行简单的shell操作,如下:

3.这里你也可以新建ssh连接,远程连接Linux系统,非常方便,使用起来也很不错:

至此,这里就介绍完了这5类手机编程软件,感兴趣的朋友可以在自己手机上下载尝试一下,偶尔作为编程学习来说,还是非常不错的,但是实际开发学习的话,建议还是在电脑上进行,调试运行程序更方便,希望以上分享的内容能对你有所帮助吧,也欢迎大家留言交流。

Android的底层是Linux,理论上Android是具有编程完备性的,只不过Android在Linux kennel上加了一层Android运行环境,这一层环境是虚拟机,再加上Android本质上是在移动平台,编程功能就削弱了。iOS的本质是Unix,最早的iPhone甚至是直接运行的Mac OS X,因此iOS同样也具有编程完备性。

不过在正式回答这个问题之前我不得不说一句,倘若你是想把编程作为一个兴趣,你当然可以在手机上写写代码,反过来你要把编程作为以后吃饭的事业,或者说想要在编程方面取得一个比较大的成就,你还是应该选择用电脑编程。

这一款工具你一定要熟悉,这是Android上的一款神器。

Termux可以帮助你在Android上搭建完备的Linux环境,你可以理解为类似Windows上的Cygwin,它并非是Linux上的虚拟机环境,并且安装包只有几百KB而已。

你可以安装python环境,甚至安装Linux上的很多包,这款工具还支持ssh、ftp等众多连接方式。

C4droid是Android平台伤的一款C/C++集成开发环境,默认支持tcc编译器,可以选择安装gcc插件,这款编程工具可以用SDL简单媒体层库,也支持qt开发,甚至还可以开发native Android app开发,功能还是比较全的。

百度贴吧有一些用户发布了比较新的版本,默认使用g++编译器。

这是Android上功能强大、但是使用简单的python集成开发环境,python这门编程语言的缺点是怎么写都行,不过优点也是怎么写也可以,随着人工智能的爆发,python已经成为了一门非常重要的编程语言。

全功能的终端模拟器,pip包管理器,内置了C/C++众多库,用起来非常方便,顺便提醒一下的是,这款软件的作者跟C4droid是同一个。

这个功能还是比较强大的,可以在Android系统上进行app和 游戏 开发,也是一个具有编写、编译、调试的全功能的集成开发环境。

这款集成开发环境支持错误检查、代码重构、智能代码导航、生成apk文件,并且可以直接将生成的apk文件进行安装调试。AIDE还完全兼容eclipse项目,你只需要把代码复制到你的AIDE中,就可以继续写代码。

AIDE有两个版本,一个是面向本地开发的AIDE常规版本,一个是面向网络开发的AIDE Web,主要支持的编程语言有C++/Java/JavaScript等。

当然在iOS平台上也有C/C++集成开发环境,Pico Compiler等编程工具,不过目前在编程工具方面Android平台更加开放,一些开发者也更愿意放一些这些工具上去。不过还是那句话,如果你想学好编程,建议还是到PC上安装相应的开发环境操作,屏幕更大、IDE功能也更多更全,电脑键盘敲代码也比手机上小键盘敲代码舒服得多。

这里介绍几个可以在手机上编程的软件,感兴趣的可以下载一下,试着操作一下:

1.Python:这里推荐一个软件—QPython3,集成了Python3解释器、Console控制台和QEdit编辑器,可以直接编辑运行python代码,也可以进行简单的安卓开发,下面我简单介绍一下这个软件的安装和使用:

安装的话,直接在手机应用中搜索就行,如下:

图1

mypaintpro下载需要什么

mypaintpro下载需要手机支持即可。MyPAIntBrushPro专业版formac是Mac平台上的一款mac绘图软件,支持一键抠图,利用丰富的工具和画笔来绘制你所需的图像,并保存到你的Mac中。可以在苹果AppStore或者各大安卓应用商店搜索w3cschool或编程狮下载App,或者扫描下面的二维码下载App。

(责任编辑:IT教学网)

更多

推荐Oracle文章