Hadoop3.2.4+Hive3.1.2+sqoop1.4.7安装部署

目录

一、软件包

二、JDK部署

1.JDK解压

2.设置环境变量

3.环境验证

4.分发JDK相关文件至Node_02、Node_03 

5.环境生效

三、Zookeeper部署

1.Zookeeper解压

2.Zookeeper配置

3.创建myid文件

4.设置环境变量并添加映射

5.分发ZooKeeper 相关文件至Node_02、Node_03

四、Hadoop部署

1.Hadoop解压

2.设置环境变量

3.查看hadoop版本

4.配置hadoop

 五、Hive部署

1.Hive解压

2.设置环境变量

3.hive部署-远程模式

六、Sqoop安装(在Node_02安装)

1.Sqoop解压

2.sqoop配置

3.设置环境变量

4.添加相关jar包

5. 测试sqoop

6.数据迁移


一、软件包

hadoop3.2.4.tar.gz ( 解压后若无src文件,则需再下载hadoop-3.2.4-src.tar.gz )

apache-hive3.1.2-bin.tar.gz

zookeeper-3.7.1.tar.gz

jdk-8u162-linux-x64.tar.gz

mysql-5.7.29-1.el7.x86_64.rpm-bundle.tar

mysql-connector-java-5.1.40.tar.gz

sqoop-1.4.7.bin_hadoop-2.6.0.tar.gz

java-json.jar

SecureCRT(远程连接虚拟机工具,或Xshell)

IdeaIU-2022.3.1(Hive可视化工具)

准备工作:1. 虚拟机Node_01、Node_02、Node_03,并在三台虚拟机上建立存放软件包目录/export/software 及存放应用的目录/export/servers;2.安装文件传输工具lrzsz:yum install lrzsz -y;3.通过SecureCRT将所需以上软件包上传至目录/export/software

二、JDK部署

1.JDK解压

    tar -zxvf /export/software/jdk-8u162-linux-x64.tar -C /export/servers/

2.设置环境变量

    vi /etc/profile

export JAVA_HOME=/export/servers/jdk
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

3.环境验证

   java -version 输出:

   java version "1.8.0_162"
  Java(TM) SE Runtime Environment (build 1.8.0_162-b12)
  Java HotSpot(TM) 64-Bit Server VM (build 25.162-b12, mixed mode)

4.分发JDK相关文件至Node_02、Node_03 

//--分发jdk
scp -r /export/servers/jdk/ root@node02:/export/servers/
scp -r /export/servers/jdk/ root@node03:/export/servers///--分发环境变量文件scp /etc/profile root@node02:/etc/profile
scp /etc/profile root@node03:/etc/profile

5.环境生效

    三台虚拟机分别 source /etc/profile使环境生效

三、Zookeeper部署

1.Zookeeper解压

   tar -zxvf /export/software/zookeeper-3.7.1.tar.gz -C /export/servers/

2.Zookeeper配置

    cd  /export/servers/zookeeper-3.7.1/conf

    cp zoo_sample.cfg zoo.cfg

    vi  zoo.cfg,修改dataDir并添加参数“server.x“指定Zookeeper集群包含的服务器

dataDir=/export/data/zookeeper/zkdata
dataLogDir=/export/data/zookeeper/logs
server.1=node01:2888:3888
server.2=node02:2888:3888
server.3=node03:2888:3888

注意:提前建立/export/data/zookeeper/zkdata目录

3.创建myid文件

  三台虚拟机分别在/export/data/zookeeper/zkdata目录创建myid

  echo 1 > myid    // Node_01

  echo 2 > myid    // Node_02

  echo 3 > myid    // Node_03

4.设置环境变量并添加映射

   vi /etc/profile

export ZK_HOME=/export/servers/zookeeper-3.7.1
export PATH=$PATH:$ZK_HOME/bin

 在三台虚拟机中添加映射:vi /etc/hosts

127.0.0.1   localhost192.168.159.128 node01
192.168.159.129 node02
192.168.159.130 node03

5.分发ZooKeeper 相关文件至Node_02、Node_03

   与JDK分发类似

//--分发zookeeper
scp -r /export/servers/zookeeper-3.7.1/ root@node02:/export/servers/
scp -r /export/servers/zookeeper-3.7.1/ root@node03:/export/servers///--分发环境变量文件scp /etc/profile root@node02:/etc/profile
scp /etc/profile root@node03:/etc/profile

  注意三台虚拟机分别 source /etc/profile使环境生效

四、Hadoop部署

1.Hadoop解压

    tar -zxvf /export/software/hadoop-3.2.4.tar.gz -C /export/servers/

2.设置环境变量

    vi /etc/profile,编辑完成后source /etc/profile 使环境生效

export HADOOP_HOME=/export/servers/hadoop-3.2.4
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

3.查看hadoop版本

   hadoop version

   也可查看hadoop目录结构

4.配置hadoop

(1)/export/servers/hadoop-3.2.4/etc/hadoop/hadoop-env.sh

# The java implementation to use. By default, this environment
# variable is REQUIRED on ALL platforms except OS X!
export JAVA_HOME=/export/servers/jdk

(2)/export/servers/hadoop-3.2.4/etc/hadoop/yarn-env.sh

#some java parameters
export JAVA_HOME=/export/servers/jdk

(3) /export/servers/hadoop-3.2.4/etc/hadoop/core-site.xml

<configuration><property><name>fs.defaultFS</name><value>hdfs://ns1</value></property><property><name>hadoop.tmp.dir</name><value>/export/servers/hadoop-3.2.4/tmp</value></property><property><name>ha.zookeeper.quorum</name><value>node01:2181,node02:2181,node03:2181</value></property>        <property><name>hadoop.proxyuser.root.hosts</name><value>*</value></property>  <property><name>hadoop.proxyuser.root.groups</name><value>*</value></property>
</configuration>

(4)  /export/servers/hadoop-3.2.4/etc/hadoop/hdfs-site.xml

<configuration><property><name>dfs.replication</name><value>3</value></property><property><name>dfs.namenode.name.dir</name><value>/export/data/hadoop/name</value></property><property><name>dfs.datanode.data.dir</name><value>/export/data/hadoop/data</value></property><property><name>dfs.nameservices</name><value>ns1</value></property><property><name>dfs.ha.namenodes.ns1</name><value>nn1,nn2</value></property><property><name>dfs.namenode.rpc-address.ns1.nn1</name><value>node01:9000</value></property><property><name>dfs.namenode.http-address.ns1.nn1</name><value>node01:50070</value></property><property><name>dfs.namenode.rpc-address.ns1.nn2</name><value>node02:9000</value></property><property><name>dfs.namenode.http-address.ns1.nn2</name><value>node02:50070</value></property><property><name>dfs.namenode.shared.edits.dir</name><value>qjournal://node01:8485;node02:8485;node03:8485/ns1</value></property><property><name>dfs.journalnode.edits.dir</name><value>/export/data/hadoop/journaldata</value></property><property><name>dfs.ha.automatic-failover.enabled</name><value>true</value></property><property><name>dfs.client.failover.proxy.provider.ns1</name><value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value></property><property><name>dfs.ha.fencing.methods</name><value>sshfenceshell(/bin/true)</value></property><property><name>dfs.ha.fencing.ssh.private-key-files</name><value>/root/.ssh/id_rsa</value></property><property><name>dfs.ha.fencing.ssh.connect-timeout</name><value>30000</value></property><property><name>dfs.webhdfs.enabled</name><value>true</value></property>
</configuration>

(5) /export/servers/hadoop-3.2.4/etc/hadoop/mapred-site.xml

<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property><property><name>yarn.app.mapreduce.am.env</name><value>HADOOP_MAPRED_HOME=/export/servers/hadoop-3.2.4</value></property><property><name>mapreduce.map.env</name><value>HADOOP_MAPRED_HOME=/export/servers/hadoop-3.2.4</value></property><property><name>mapreduce.reduce.env</name><value>HADOOP_MAPRED_HOME=/export/servers/hadoop-3.2.4</value></property><property><name>mapreduce.map.memory.mb</name><value>2048</value></property><property><name>mapreduce.reduce.memory.mb</name><value>2048</value></property><property><name>mapreduce.map.java.opts</name><value>-Xmx1024m</value></property><property><name>mapreduce.reduce.java.opts</name><value>-Xmx1024m</value></property>
</configuration>

(6) /export/servers/hadoop-3.2.4/etc/hadoop/yarn-site.xml

<configuration>
<!-- Site specific YARN configuration properties --><property><name>yarn.resourcemanager.ha.enabled</name><value>true</value></property><property><name>yarn.resourcemanager.cluster-id</name><value>yrc</value></property><property><name>yarn.resourcemanager.ha.rm-ids</name><value>rm1,rm2</value></property><property><name>yarn.resourcemanager.hostname.rm1</name><value>node01</value></property><property><name>yarn.resourcemanager.hostname.rm2</name><value>node02</value></property><property><name>yarn.resourcemanager.zk-address</name><value>node01:2181,node02:2181,nod03:2181</value></property><property><name>yarn.resourcemanager.recovery.enabled</name><value>true</value></property><property><name>yarn.resourcemanager.ha.automatic-failover.enabled</name><value>true</value></property><property><name>yarn.resourcemanager.store.class</name><value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name><value>org.apache.hadoop.mapred.ShuffleHandler</value></property>     <property><name>yarn.resourcemanager.webapp.address.rm1</name><value>node01:8088</value></property><property><name>yarn.resourcemanager.webapp.address.rm2</name><value>node02:8088</value></property><property><name>yarn.nodemanager.resource.memory-mb</name><value>4096</value></property>
</configuration>

(7)在sbin下的start-dfs.sh,stop-dfs.sh, start-yarn.sh,stop-yarn.sh头部添加以下信息:

在start-dfs.sh和stop-dfs.sh中加入:

HDFS_ZKFC_USER=root
HDFS_JOURNALNODE_USER=root
HDFS_DATANODE_USER=root
HDFS_DATANODE_SECURE_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

在start-yarn.sh,stop-yarn.sh中加入:

YARN_RESOURCEMANAGER_USER=root
HDFS_DATANODE_SECURE_USER=root
YARN_NODEMANAGER_USER=root

 (8)注意:hadoop3以上版本需要修改workers,添加以下内容:

node01
node02
node03

 若在slaves文件中添加以上内容,后面启动hadoop时只有一个节点有datanode。

hadoop集群正常运行至少两个datanode。

(9)分发

#将Hadoop安装目录分发到虚拟机Node_02和Node_03
scp -r /export/servers/hadoop-3.2.4/ root@node02:/export/servers/
scp -r /export/servers/hadoop-3.2.4/ root@node03:/export/servers/
#将系统环境变量文件分发到虚拟机Node_02和Node_03scp /etc/profile root@node02:/etc/scp /etc/profile root@node03:/etc/

 注意三台虚拟机分别 source /etc/profile使环境生效

(10)hadoop启动

首先,三台虚拟机启动zookeeper:zkServer.sh start(可以用zkServer.sh status查看状态,zkServer.sh stop关闭zookeeper)。

其次,三台虚拟机执行hdfs --daemon start datanode命令启动每台虚拟机的journalnode服务;初始化NameNode(注意仅初次启动执行),在Node_01上hdfs namenode -format命令初始化NameNode操作;初始化zookeeper(注意仅初次启动执行),执行hdfs zkfc -formatZK命令初始化ZooKeeper 中的 HA 状态;NameNode同步(注意仅初次启动执行),scp -r /export/data/hadoop/name/  root@node02:/export/data/hadoop/

注意:如果初始化hdfs namenode -format报错 Unable to check if JNs are ready for formatting.

解决办法:1.三台虚拟机启动zkServer.sh start,查看状态是否是一个leader,两个follower,然后启动journalnode: hdfs --daemon start datanode/journalnode,jps查看namenode是否启动;2.如果再次输入格式化命令hdfs namenode -format还报错,先在hadoop路径下启动dfs:sbin/start-dfs.sh,再进行格式化,成功。

注意:如果初始化hdfs namenode -format报错 

解决办法:三台虚拟机都要删除/export/data/data/journaldata文件里的内容,再初始化。

最后,Node_01上启动hdfs和yarn,可直接进入/export/servers/hadoop-3.2.4目录输入sbin/start-all.sh

jps查看相关服务进程是否成功启动。

 注意:每次启动hadoop时,先在三台虚拟机上启动zookeeper,然后在Node_01上利用sbin/start-all.sh启动hadoop。关闭时,先关闭集群sbin/stop-all.sh,再依次在三台虚拟机中关闭zookeeper。

 hadoop部署完成后,查看web 50070和8088端口页面(下图),能打开则说明hadoop部署成功!

 五、Hive部署

1.Hive解压

   tar -zxvf /export/software/apache-hive-3.1.2-bin.tar.gz -C /export/servers/

2.设置环境变量

    vi /etc/profile,编辑完成后source /etc/profile 使环境生效

export HIVE_HOME=/export/servers/apache-hive-3.1.2-bin
export PATH=$PATH:$HIVE_HOME/bin

3.hive部署-远程模式

(1)卸载Centos7自带mariadb:rpm -qa|grep mariadb查看,rpm -e mariadb-libs-5.5.68-1.el7.x86_64 --nodeps 删除

(2)在线安装mysql:

     yum install wget -y

     rpm --import https://repo.mysql.com/RPM-GPG-KEY-mysql-2022

     wget -i -c http://dev.mysql.com/get/mysql57-community-release-el7-10.noarch.rpm 

     yum -y install mysql57-community-release-el7-10.noarch.rpm

     yum -y install mysql-community-server

参考博客https://blog.csdn.net/weixin_43288858/article/details/125445404?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522167850355216800226524886%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fall.%2522%257D&request_id=167850355216800226524886&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~first_rank_ecpm_v1~rank_v31_ecpm-2-125445404-null-null.142^v73^insert_down4,201^v4^add_ask,239^v2^insert_chatgpt&utm_term=mysql%E5%9C%A8hadoop%E4%B8%AD%E5%AE%89%E8%A3%85&spm=1018.2226.3001.4187

(3)启动mysql: 执行“systemctl start mysqld.service”命令启动MySQL服务,待MySQL服务启动完成后,执行“systemctl status mysqld.service”命令查看MySQL服务运行状态(出现active信息,mysql处于运行状态)

(4)登陆mysql:grep "password" /var/log/mysqld.log查看首次登陆密码,然后执行mysql -uroot -p 以root身份登陆,输入首次登陆密码,进入后修改mysql密码。

  # 修改密码为Itcast@2022,密码策略规则要求密码必须包含英文大小写、数字以及特殊符号> ALTER USER 'root'@'localhost' IDENTIFIED BY 'Itcast@2022';	# 刷新MySQL配置,使得配置生效> FLUSH PRIVILEGES;

 (5)hive配置

    #进入Hive安装目录下的conf目录$ cd /export/servers/apache-hive-3.1.2-bin/conf#将文件hive-env.sh.template进行拷贝并重命名为hive-env.sh$ cp hive-env.sh.template hive-env.sh

首先,修改vi hive-env.sh: 

export HADOOP_HOME=/export/servers/hadoop-3.2.4
export HIVE_CONF_DIR=/export/servers/apache-hive-3.1.2-bin/conf
export HIVE_AUX_JARS_PATH=/export/servers/apache-hive-3.1.2-bin/lib
export JAVA_HOME=/export/servers/jdk

然后,配置hive-site.xml 

<configuration><property><name>hive.metastore.warehouse.dir</name><value>/user/hive_local/warehouse</value></property><property><name>hive.exec.scratchdir</name><value>/tmp_local/hive</value></property><property><name>hive.metastore.local</name><value>true</value></property><property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true&amp;useSSL=false&amp;useUnicode=true&amp;characterEncoding=UTF-8</value></property><property><name>javax.jdo.option.ConnectionDriverName</name><value>com.mysql.jdbc.Driver</value></property><property><name>javax.jdo.option.ConnectionUserName</name><value>root</value></property><property><name>javax.jdo.option.ConnectionPassword</name><value>Itcast@2022</value></property><property><name>hive.cli.print.header</name><value>true</value></property><property><name>hive.cli.print.current.db</name><value>true</value></property>    <property><name>hive.exec.mode.local.auto</name><value>true</value></property><property><name>hive.exec.dynamic.partition</name><value>true</value></property><property><name>hive.exec.dynamic.partition.mode</name><value>nonstrict</value></property><property><name>hive.support.concurrency</name><value>true</value></property><property><name>hive.txn.manager</name><value>org.apache.hadoop.hive.ql.lockmgr.DbTxnManager</value></property><property><name>hive.compactor.initiator.on</name><value>true</value></property><property><name>hive.compactor.worker.threads</name><value>1</value></property>
</configuration>

 (6)上传jdbc连接mysql驱动包

       解压后将mysql-connector-java-5.1.40.jar放入/export/servers/apache-hive-3.1.2-bin/lib

(7) 解决hadoop和hive的两个guava.jar版本不一致:

       删除hive/lib中的guava.jar,并将hadoop/share/share/hadoop/common/lib中的guava-27.0-jre.jar的复制到hive/lib中。

(8)在Node_02上执行hiveserver2”命令启动HiveServer2服务,HiveServer2服务会进入监听状态,若使用后台方式启动HiveServer2服务,则执行“hive --service hiveserver2 &”命令。然后,在Node_03执行:beeline -u jdbc:hive2://node02:10000 -n root -p,远程连接虚拟机Node_02的HiveServer2服务

(9)在HiveCLI的命令行界面执行“create database test;”命令创建数据库test。然后分别执行“show databases;”命令分别查看Node_02Node_03数据库列表。

4. windows系统下安装IdeaIU-2022.3.1(Hive可视化工具)

注意:Idea连接Hive需要首先配置Hive数据源,添加相应jar

$HIVE_HOME/lib 目录下  hive-*.jar 开头的 jar
$HADOOP_HOME/share/hadoop/common 文件下 hadoop jar
以及$HADOOP_HOME/share/hadoop/mapreduce下的 jar

idea页面美观,操作简便。 

六、Sqoop安装(在Node_02安装)

1.Sqoop解压

   tar -zxvf /export/software/sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz  -C /export/servers/

2.sqoop配置

   /export/servers/sqoop-1.4.7-bin_hadoop2.6.0/conf/sqoop-env.sh

#指定Hadoop安装目录
export HADOOP_COMMON_HOME=/export/servers/hadoop-3.2.4/
export HADOOP_MAPRED_HOME=/export/servers/hadoop-3.2.4/
#指定Hive安装目录
export HIVE_HOME=/export/servers/apache-hive-3.1.2-bin/
#指定ZooKeeper安装目录
export ZOOKEEPER_HOME=/export/servers/zookeeper-3.7.1/
export ZOOCFGDIR=/export/servers/zookeeper-3.7.1/conf
export HCAT_HOME=/export/servers/apache-hive-3.1.2-bin/hcatalog

3.设置环境变量

   vi /etc/profile 并source  /etc/profile

export SQOOP_HOME=/export/servers/sqoop-1.4.7-bin_hadoop2.6.0/
export PATH=$PATH:$SQOOP_HOME/bin

4.添加相关jar包

(1)添加jdbc驱动包:将MySQL数据库的JDBC驱动包mysql-connector-java-5.1.40.jar添加到Sqoop安装目录的lib目录中。

(2)删除Sqoop安装目录的lib目录中的commons-lang3-3.4.jar,并添加commons-lang-2.6.jar。

$HADOOP_HOME/share/hadoop/yarn/timelineservice/lib/commons-lang-2.6.jar

5.测试sqoop

sqoop list-databases \-connect jdbc:mysql://localhost:3306/ \--username root --password Itcast@2022

 6.数据迁移

  利用sqoop import将mysql数据库数据迁移至hive,或将hive数据 sqoop export 至mysql

 (1)  由于sqoop向hive表导入数据依赖于hive相关jar包,需在sqoop-1.4.7-bin_hadoop2.6.0/lib下添加 hive-*.jar、datanucleus-*.jar、derby-10.14.1.0.jar、javax.jdo-3.2.0-m3.jar、java-json.jar(自己下载)。

(2)将hive相关jar包导入hadoop中yarn/lib下

cp /export/servers/apache-hive-3.1.2-bin/lib/derby-10.14.1.0.jar  /export/servers/hadoop-3.2.4/share/hadoop/yarn/lib/

(3)导入hive配置文件

cp /export/servers/apache-hive-3.2.1-bin/conf/hive-site.xml /export/servers/sqoop-1.4.7-bin_hadoop2.6.0/conf/

(4)开启mysql远程访问:mysql -uroot -p登陆

#指定远程登陆用户root的密码Itcast@2022
CREATE USER 'root'@'%' IDENTIFIED BY 'Itcast@2022';#刷新
flush privileges;

(5)数据迁移

      两种方式,一种是sqoop方式,一种利用hcatalog,详见:

https://blog.csdn.net/javastart/article/details/124225095

主要参考书籍:《Hive数据仓库应用》,黑马程序员,清华大学出版社

欢迎大家交流、批评指正。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/33333.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

JVM(运行时数据区)

内存是非常重要的系统资源&#xff0c;是硬盘和CPU的中间仓库及桥梁&#xff0c;承载着操作系统和应用程序的实时运行。JVM内存布局规定了Java在运行过程中内存申请、分配、管理的策略&#xff0c;保证了JVM的高效稳定运行。 1、线程私有&#xff1a;程序计数器、虚拟机栈、本…

手把手教你如何使用Docker

手把手教会你如何使用Docker&#xff01;&#xff01;&#xff01; 一、Docker介绍 我们在公司开发中&#xff0c;会有开发环境&#xff0c;测试环境&#xff0c;上线环境&#xff0c; 比如我们开发人员开发好了一个项目&#xff0c;在开发环境中运行正常&#xff0c;但测试人…

在Linux系统中实现一个可加载的内核模块

Intro 坐标成都电讯大专, 某操作系统课老师在PPT上草草写下3个内核线程API后就要求编程, 感受一下: include/linux/kthread.h&#xff0c;你就看到了它全部的API&#xff0c;一共三个函数。 这里是代码声明&#xff0c;略 kthread_run()负责内核线程的创建&#xff0c; kthre…

eclipse安装MAT内存分析工具插件

&#xff08;一&#xff09;默认已安装eclipse IDE 打开eclipse选择如下操作&#xff1a; 插件地址&#xff1a;http://download.eclipse.org/mat/1.5/update-site/ 安装插件。 安装完成后重启即可。 &#xff08;二&#xff09;获取Heap Dump文件 新建一个java项目&#xff0c…

【深度学习·实践篇】CodeT5模型学习与基于CodeT5进行新的模型训练

文章目录 写在前面一. 一些名词二. 基于Codet5训练自己的模型理论步骤&#xff1a;1. 安装依赖2. 下载CodeT5代码库3. 准备数据集4. 修改训练脚本5. 启动训练6. 进行预测 具体实践1. 准备数据集2. 配置运行环境3. 修改脚本参数4. 为实现分布式训练&#xff0c;修改脚本如何实现…

虚拟机安装Ubuntu18.04

一、下载VMware VMware下载地址&#xff1a;https://www.vmware.com/products/workstation-pro/workstation-pro-evaluation.html 安装这个太久了&#xff0c;可以网上搜一下安装流程不难&#xff0c;只有一个建议&#xff0c;安装路径不要有中文 可以参考下面教程&#xff0c…

智能PID软件-AVEVA Diagrams创建图纸模板【图瓦软件出品】

AVEVA Diagrams可以针对不同的项目&#xff0c;定义公司级和项目级的图纸模板&#xff0c;包括图纸图框和角图章。不仅大大节约设计人员的时间&#xff0c;而且能够确保成品图纸的一致性和规范性。下面我们介绍一下如何在Diagrams中定制图纸模板&#xff0c;初步了解一下Diagra…

5 款必备的免费在线画图工具!超级好用

大家好&#xff0c;我是宝哥&#xff01; zen flowchart 虽然是英文&#xff0c;但其实也并没有多么复杂的内容&#xff0c;而且浏览器现在都带有页面翻译的功能&#xff0c;所以还是蛮方便的&#xff01;初次使用需要注册&#xff0c;也并不难&#xff0c;随便自己的一个邮箱注…

最新ChatGPT开源平替模型骆马(Vicuna) 单个GPU就能跑!UC伯克利领头,130亿参数「小羊驼」权重公布

转载&#xff1a;单个GPU就能跑&#xff01;UC伯克利领头&#xff0c;130亿参数「小羊驼」权重公布 【导读】刚刚&#xff0c;UC伯克利、CMU、斯坦福等&#xff0c;联手发布了最新开源模型骆马&#xff08;Vicuna&#xff09;的权重。 3月31日&#xff0c;UC伯克利联手CMU、斯…

试用国内及国外AI绘图软件后的总结

最近AI很火&#xff0c;所以这几天抱着试试看的角度试用了多款AI绘图软件&#xff0c;大概测试了市面上的3款工具吧&#xff0c;3款国外的&#xff0c;1款国内的。 因为有对比&#xff0c;波哥也不是专业的评测机构出身&#xff0c;所以这些比对无论是从角度&#xff0c;还是从…

这家付费图库巨头率先拥抱AI绘画,还掏钱补偿原创画师

詹士 发自 凹非寺量子位 | 公众号 QbitAI 画师与AI生成图片争议不断&#xff0c;有平台给出了解决方案。 而且是掏真金白银补偿创作者那种。 美东时间10月25日&#xff0c;付费图库Shutterstock宣布&#xff1a;将通过出售AI生成图片&#xff0c;向创作者提供补偿费&#xff0c…

OpenAI 发布GPT-4——全网抢先体验

OpenAI 发布GPT-4 最近 OpenAI 犹如开挂一般&#xff0c;上周才刚刚推出GPT-3.5-Turbo API&#xff0c;今天凌晨再次祭出GPT-4这个目前最先进的多模态预训练大模型。与上一代GPT3.5相比&#xff0c;GPT-4最大的飞跃是增加了识图能力&#xff0c;并且回答准确性也得到显著提高。…

GPT-4正式发布!如何访问 怎么免费使用GPT-4?

美国人工智能研究实验室OpenAI&#xff0c;周二为其爆红聊天机器人ChatGPT发布了最新GPT-4语言模型&#xff0c;这距离ChatGPT的上线仅仅过去了4个月时间。 和ChatGPT最初使用的GPT-3.5模型相比&#xff0c;GPT-4实现了几个方面的飞跃式提升&#xff1a;强大的识图能力&#x…

谷歌Bard最新更新:支持中文,还升级了ChatGPT都没有的识图功能

夕小瑶科技说 原创 作者 | 智商掉了一地、ZenMoore 两个月前咱们刚盘点完 Bard 的大更新&#xff0c;在那两周中&#xff0c;谷歌将全家桶和 Bard 联动不久&#xff0c;还推出了十大新功能&#xff0c;当时他们就在博客更新中提到&#xff0c;会在今年夏天新增对中文等另外 40…

GPT-4来炸场:10秒输出一个网站,识图知意 so easy,为何如此丝滑

比被卷更可怕的莫过于自己卷自己&#xff0c;这点还得是OpenAI更胜一筹。 四个月前&#xff0c;ChatGPT 刚刚推出&#xff0c;并成为历史上增长最快的消费者应用程序。在ChatGpt大杀四方时&#xff0c;万众瞩目的大型多模态模型GPT-4也在今天凌晨正式发布。 据OpenAI官方介绍&…

使用GPT-4生成QT代码

一、概述 最近ChatGPT火爆起来了&#xff0c;ChatGPT是一种基于GPT的自然语言处理模型&#xff0c;可以用于生成自然语言文本&#xff0c;例如对话、文章等。最近又发现了一个优秀且免费的代码生成工具Cursor &#xff0c;Cursor集成了 GPT-4 &#xff0c;可以帮助你快速编写、…

chatgpt赋能python:Python如何查看图片

Python如何查看图片 在SEO优化中&#xff0c;图片也是至关重要的一部分。而在Python中&#xff0c;我们可以使用一些代码来查看图片。下面就来介绍一下Python如何查看图片的方法。 1. 安装Python相关库 要使用Python查看图片&#xff0c;需要先安装一些相关的库。常用的库包…

ChatGPT之后,垂直大模型兴起

由ChatGPT掀起的这一波大模型浪潮中, 百度、阿里等大厂相继下场&#xff0c;王慧文、王小川、李开复等大佬也纷纷入场。年初&#xff0c;比尔盖茨高呼“人工智能时代已经开始”&#xff0c;给大模型定下了宏伟的基调。随着竞争的展开&#xff0c;大模型已不是“是否”问题&…

大佬下场AI2.0,我们帮“王慧文们”指条明路

划重点&#xff1a; 1、如果将开发大模型比做是“造房子”&#xff0c;那AI Infra 就是“工具箱”&#xff0c;而中国缺少的正是工具和原材料制造工厂。 2、根据国外市场的情况&#xff0c;可以将整个AI Infra大致分为数据准备、模型构建、模型产品三个层面&#xff0c;在这三…

win10系统提示 “你的账户已被停用,请向系统管理员咨询” 如何解决 ?

今天有位朋友,可以是不知道是为了寻求刺激,还是刷存在感, 把自己的win10系统管理员账号 Administrator 将用户给禁用了&#xff0c;并且注销完开机后,就是电脑突然提示“你的账户已被停用&#xff0c;请向系统管理员咨询”如图 : 解决方法 此情况可以长按电源键强制关机再开机…