范文健康探索娱乐情感热点
投稿投诉
热点动态
科技财经
情感日志
励志美文
娱乐时尚
游戏搞笑
探索旅游
历史星座
健康养生
美丽育儿
范文作文
教案论文
国学影视

调度工具(ETL任务流)

  1.区别ETL作业调度工具和任务流调度工具
  kettle是一个ETL工具,ETL(Extract-Transform-Load的缩写,即数据抽取、转换、装载的过程)。
  kettle中文名称叫水壶,该项目的主程序员MATT 希望把各种数据放到一个壶里,然后以一种指定的格式流出。
  所以他的重心是用于数据
  oozie是一个工作流,Oozie工作流是放置在控制依赖DAG(有向无环图 Direct Acyclic Graph)中的一组动作(例如,Hadoop的Map/Reduce作业、Pig作业等),其中指定了动作执行的顺序。
  oozie工作流中是有数据流动的,但是重心是在于工作流的定义。
  二者虽然都有相关功能及数据的流动,但是其实用途是不一样的。 2.ETL作业调度工具2.1Sqoop调度工具2.1.1列举出所有数据库
  查看帮助 bin/sqoop help
  列举出所有linux上的数据库 bin/sqoop list-databases --connect jdbc:mysql://localhost:3306 --username root --password root
  列举出所有Window上的数据库 bin/sqoop list-databases --connect jdbc:mysql://192.168.22.36:3306 --username root --password root
  查看数据库下的所有表bin/sqoop list-tables --connect jdbc:mysql://localhost:3306/mysql --username root --password root2.12导入数据库表数据到HDFS
  (1)确定mysql服务启动正常
  查询控制端口和查询进程来确定,一下两种办法可以确认mysql是否在启动状态
  办法1:查询端口 $ netstat -tulpn
  MySQL监控的TCP的3306端口,如果显示3306,证明MySQL服务在运行中
  办法二:查询进程
  可以看见mysql的进程 ps -ef | grep mysqld
  没有指定数据导入到哪个目录,默认是/user/root/表名 bin/sqoop import  --connect jdbc:mysql://192.168.77.137/zhjy  --password 123456  --username root  --table zf_jygz_thjc  --m 1  --fields-terminated-by "	" 或是 bin/sqoop import  --connect jdbc:mysql://192.168.77.137/zhjy  --password 123456  --username root  --table zf_jygz_thjc  --m 5  --split-by ZF_BH(一般在设置-m>1时使用) --fields-terminated-by "	"
  原因:
  如果表中有主键,m的值可以设置大于1的值;如果没有主键只能将m值设置成为1;或者要将m值大于1,需要使用--split-by指定一个字段
  设置了-m 1 说明只有一个maptask执行数据导入,默认是4个maptask执行导入操作,但是必须指定一个列来作为划分依据
  导入数据到指定目录
  在导入表数据到HDFS使用Sqoop导入工具,我们可以指定目标目录。使用参数 --target-dir来指定导出目的地,使用参数—delete-target-dir来判断导出目录是否存在,如果存在就删掉 bin/sqoop import  --connect jdbc:mysql://192.168.77.137/zhjy  --username root  --password 123456  --delete-target-dir  --如果目录存在,将目录删除 --table zf_jygz_thjc  --target-dir /user/zhjy  --指定保存目录 --m 1  --fields-terminated-by "	"
  查询导入 bin/sqoop import  --connect jdbc:mysql://192.168.72.133:3306/company  --username root  --password root  --target-dir /user/company  --delete-target-dir  --num-mappers 1  --fields-terminated-by "	"  --query "select name,sex from staff where id <=1 and $CONDITIONS;"
  提示:must contain "$CONDITIONS" in WHERE clause。
  where id <=1 匹配条件
  $CONDITIONS:传递作用。
  如果 query 后使用的是双引号,则 $CONDITIONS前必须加转义符,防止 shell 识别为自己的变量。
  --query时不能使用--table一起使用
  需要指定--target-dir路径
  导入到hdfs指定目录并指定要求 bin/sqoop import  --connect jdbc:mysql://192.168.72.133:3306/company  --username root  --password root #提高数据库到hadoop的传输速度 --direct --table staff  --delete-target-dir  #导入指定列,涉及到多列,用逗号分隔 --column id,sex  --target-dir /user/company  --num-mappers 1  #指定分隔符 --fields-terminated-by "	" #指定导出存储格式 --as-textfile #指定数据压缩(压缩,解压缩方式) --compress --compression-codec org.apache.hadoop.io.compress.SnappyCodec
  数据导出储存方式(数据存储文件格式---( textfil parquet)--as-textfileImports data as plain text (default)--as-parquetfile Imports data to Parquet Files)
  导入表数据子集到HDFS bin/sqoop import  --connect jdbc:mysql://172.16.43.67:3306/userdb  --username root  --password root  --table emp_add  --target-dir /sqoop/emp_add  -m 1   --delete-target-dir  --where "city = "sec-bad""
  sqoop导入blob数据到hive
  对于CLOB,如xml文本,sqoop可以迁移到Hive表,对应字段存储为字符类型。
  对于BLOB,如jpg图片,sqoop无法直接迁移到Hive表,只能先迁移到HDFS路径,然后再使用Hive命令加载到Hive表。迁移到HDFS后BLOB字段存储为16进制形式。 bin/sqoop-import  --connect jdbc:mysql://192.168.77.137:3306/zhjy  --username root  --password 123456  --table ceshi  --columns "id,name,photo"  --split-by id  -m 4  --inline-lob-limit=16777126 设置内联的LOB对象的大小 --target-dir /user/hive/warehouse/ods.db/ceshi
  2.1.3导入关系表到Hive
  第一步:导入需要的jar包
  将我们mysql表当中的数据直接导入到hive表中的话,我们需要将hive的一个叫做hive-exec-1.1.0-cdh5.14.0.jar的jar包拷贝到sqoop的lib目录下 cp /export/servers/hive-1.1.0-cdh5.14.0/lib/hive-exec-1.1.0-cdh5.14.0.jar /export/servers/sqoop-1.4.6-cdh5.14.0/lib/
  第二步:开始导入 day=`date -d "yesterday" +%Y%m%d` sqoop import         --导入数据 --connect jdbc:mysql://10.2.111.87:3306/ehl_apmp         --连接url --username root         --用户名 --password root         --密码 --table zf_jygz_thjc         --要导入的表 -m 1         --maptask --hive-drop-import-delims         --导入时删除数据库中特殊字符     --hive-overwrite         --覆盖导入 --hive-import         --导入到hive表中 --hive-database ods         --导入到hive中哪个数据库 --hive-table ods_zf_jygz_thjc         --导入到hive中哪个表 --fields-terminated-by "	"         --字段分隔符 --lines-terminated-by " "         --指定行分隔符 --null-string "N"         --字符串类型为null是代替字符 --null-non-string "N"         --字非符串类型为null是的代替字符 --hive-partition-key day         --hive表的分区字段 --hive-partition-value "$day"        --指定导入表的分区值
  导入关系表到hive并自动创建hive表
  们也可以通过命令来将我们的mysql的表直接导入到hive表当中去 sqoop import --connect jdbc:mysql://10.2.111.87:3306/ehl_apmp  --username root --password root  --table $1  --hive-import  --hive-database ods  --create-hive-table  --fields-terminated-by "	"  --null-string "N"  --null-non-string "N"  --split-by code  -m 4
  通过这个命令,我们可以直接将我们mysql表当中的数据以及表结构一起倒入到hive当中去 2.1.4增量导入
  --incremental 增量模式。
  append id 是获取一个某一列的某个值。
  lastmodified "2016-12-15 15:47:35" 获取某个时间后修改的所有数据
  -append 附加模式
  -merge-key id 合并模式
  --check-column 用来指定一些列,可以去指定多个列;通常的是指定主键id
  --last -value 从哪个值开始增量
  ==注意:增量导入的时候,一定不能加参数--delete-target-dir 否则会报错==
  第一种增量导入方式(不常用)
  1.Append方式
  使用场景:有个订单表,里面每个订单有一个唯一标识的自增列id,在关系型数据库中以主键的形式存在。之前已经将id在0-1000之间的编号的订单导入到HDFS 中;如果在产生新的订单,此时我们只需指定incremental参数为append,--last-value参数为1000即可,表示只从id大于1000后开始导入。
  (1)创建一个MySQL表 CREATE TABLE orders(  o_id INT PRIMARY KEY AUTO_INCREMENT,  o_name VARCHAR(255),  o_price INT  ); INSERT INTO orders(o_id,o_name,o_price) VALUES(1,"联想",5000); INSERT INTO orders(o_id,o_name,o_price) VALUES(2,"海尔",3000); INSERT INTO orders(o_id,o_name,o_price) VALUES(3,"雷神",5000); INSERT INTO orders(o_id,o_name,o_price) VALUES(4,"JACK JONES",800); INSERT INTO orders(o_id,o_name,o_price) VALUES(5,"真维斯",200);
  (2)创建一个hive表(表结构与mysql一致) bin/sqoop import   --connect jdbc:mysql://192.168.22.30:3306/userdb  --username root  --password root  --table emp  --target-dir /sqoop/increment  --num-mappers 1  --incremental append  --check-column id  --last-value 1202
  注意:
  append 模式不支持写入到hive表中
  2.lastModify方式
  此方式要求原有表有time字段,它能指定一个时间戳,让sqoop把该时间戳之后的数据导入到HDFS;因为后续订单可能状体会变化,变化后time字段时间戳也会变化,此时sqoop依然会将相同状态更改后的订单导入HDFS,当然我们可以只当merge-key参数为order-id,表示将后续新的记录和原有记录合并。
  # 将时间列大于等于阈值的数据增量导入HDFS sqoop import    --connect jdbc:mysql://192.168.xxx.xxx:3316/testdb    --username root    --password transwarp    --query "select order_id, name from order_table where $CONDITIONS"    --target-dir /user/root/order_all     --split-by id    -m 4     --incremental lastmodified    --merge-key order_id    --check-column time    # remember this date !!!   --last-value "2014-11-09 21:00:00"
  使用 lastmodified 方式导入数据,要指定增量数据是要 --append(追加)还是要 --merge-key(合并)last-value 指定的值是会包含于增量导入的数据中。
  第二种增量导入方式(推荐)
  ==通过where条件选取数据更加精准== yesterday=`date -d "yesterday" +%Y_%m_%d` where="update_time >= "${yesterday}"" day=`date -d "yesterday" +%Y-%m-%d` sqoop import         --导入数据 --connect jdbc:mysql://10.2.111.87:3306/ehl_apmp         --连接url --username root         --用户名 --password root         --密码 --table zf_jygz_thjc         --要导入的表 -m 1         --maptask--hive-drop-import-delims         --导入时删除数据库中特殊字符     --hive-overwrite         --覆盖导入 --hive-import         --导入到hive表中 --hive-database ods         --导入到hive中哪个数据库 --hive-table ods_zf_jygz_thjc         --导入到hive中哪个表 --fields-terminated-by "	"         --字段分隔符 --lines-terminated-by " "         --指定行分隔符 --columns "zf_bh,zf_xm"         --导入的字段(可选) --where "${where}"         --条件导入 --null-string "N"         --字符串类型为null是代替字符 --null-non-string "N"         --字非符串类型为null是的代替字符 --hive-partition-key day         --hive表的分区字段 --hive-partition-value "$day"        --指定导入表的分区值
  2.1.5从RDBMS到HBase bin/sqoop import  --connect jdbc:mysql://192.168.22.30:3306/userdb  --username root  --password root  --table emp  --columns "id,name,sex"  --column-family "info" --hbase-create-table  --hbase-row-key "id"  --hbase-table "hbase_test"  --split-by id  --num-mappers 1
  会报错
  原因:sqoop1.4.6 只支持 HBase1.0.1 之前的版本的自动创建 HBase 表的功能。
  解决方案:手动创建 HBase 表 hbase> create "hbase_staff","info"2.1.6从HDFS到RDBMS
  导出前,目标表必须存在与目标数据库中
  默认操作是将文件中的数据使用insert语句插入到表中
  数据是在HDFS当中的如下目录/sqoop/emp,数据内容如下 1201,gopal,manager,50000,TP,2018-06-17 18:54:32.0,2018-06-17 18:54:32.0,1 1202,manisha,Proof reader,50000,TP,2018-06-15 18:54:32.0,2018-06-17 20:26:08.0,1 1203,khalil,php dev,30000,AC,2018-06-17 18:54:32.0,2018-06-17 18:54:32.0,1 1204,prasanth,php dev,30000,AC,2018-06-17 18:54:32.0,2018-06-17 21:05:52.0,0 1205,kranthi,admin,20000,TP,2018-06-17 18:54:32.0,2018-06-17 18:54:32.0,1
  第一步:创建MySQL表 CREATE TABLE `emp_out` (  `id` INT(11) DEFAULT NULL,  `name` VARCHAR(100) DEFAULT NULL,  `deg` VARCHAR(100) DEFAULT NULL,  `salary` INT(11) DEFAULT NULL,  `dept` VARCHAR(10) DEFAULT NULL,  `create_time` TIMESTAMP NOT NULL DEFAULT CURRENT_TIMESTAMP,  `update_time` TIMESTAMP NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,  `is_delete` BIGINT(20) DEFAULT "1" ) ENGINE=INNODB DEFAULT CHARSET=utf8;
  第二步:执行导出命令
  通过export来实现数据的导出,将hdfs的数据导出到mysql当中去
  全量导出 bin/sqoop export  --connect jdbc:mysql://172.16.43.67:3306/userdb  --username root  --password admin  --table emp_out  --export-dir /sqoop/emp  --columns id,name (当文件数据与表结构一致时,可以不指定) --input-fields-terminated-by ","
  增量导出 bin/sqoop export  --connect jdbc:mysql://192.168.77.137:3306/zhjy  --username root  --password 123456  --table emp_out  --update-key id  --update-mode allowinsert (新增的数据被导出) --export-dir "/user/hive/warehouse/ods_ceshi/part-m-00000"  --input-null-string "N"  --input-null-non-string "N"  --input-fields-terminated-by ","  -m 1
  更新导出 bin/sqoop export  --connect jdbc:mysql://192.168.77.137:3306/zhjy  --username root  --password 123456  --table emp_out  --update-key id  --update-mode updateonly (只能导出修改后的数据,不能导出新增的数据) --export-dir "/user/hive/warehouse/ods_ceshi/part-m-00000"  --input-null-string "N"  --input-null-non-string "N"  --input-fields-terminated-by ","  -m 1
  总结:
  参数介绍
  --update-key 后面也可以接多个关键字列名,可以使用逗号隔开,Sqoop将会匹配多个关键字后再执行更新操作。
  --export-dir 参数配合--table或者--call参数使用,指定了HDFS上需要将数据导入到MySQL中的文件集目录。
  --update-mode updateonly和allowinsert。 默认模式为updateonly,如果指定--update-mode模式为allowinsert,可以将目标数据库中原来不存在的数据也导入到数据库表中。即将存在的数据更新,不存在数据插入。
  组合测试及说明
  1、当指定update-key,且关系型数据库表存在主键时:
  A、allowinsert模式时,为更新目标数据库表存的内容,并且原来不存在的数据也导入到数据库表;
  B、updateonly模式时,为更新目标数据库表存的内容,并且原来不存在的数据也不导入到数据库表;
  2、当指定update-key,且关系型数据库表不存在主键时:
  A、allowinsert模式时,为全部数据追加导入到数据库表;
  B、updateonly模式时,为更新目标数据库表存的内容,并且原来不存在的数据也不导入到数据库表;
  3、当不指定update-key,且关系型数据库表存在主键时:
  A、allowinsert模式时,报主键冲突,数据无变化;
  B、updateonly模式时,报主键冲突,数据无变化;
  4、当不指定update-key,且关系型数据库表不存在主键时:
  A、allowinsert模式时,为全部数据追加导入到数据库表;
  B、updateonly模式时,为全部数据追加导入到数据库表;
  实际案例:
  (1)mysql批量导入hive #!/bin/bash source /etc/profile num=0 list="table1 table2 table3" for i in $list; do    echo "$sum"    echo "$i"    echo "sqoop开始批量导入......"    sqoop import --connect jdbc:mysql://localhost:3306/test --username root --password 123456 --table person --hive-table db.$i --delete-target-dir  --hive-overwrite --hive-import &    num=$(expr $num + 1)    if [$sum -gt 4 ]; then       {          echo "等待批量任务完成"          wait          echo "开始下一批导入"          num = 0       }    fi done echo "等待最后一批任务完成" wait echo "全部导入完成"
  使用shell脚本: #!/bin/sh export SQOOP_HOME=/usr/share/sqoop-1.4.4 hostname="192.168.1.199" user="root" password="root" database="test" table="tags" curr_max=0  function db_to_hive(){     ${SQOOP_HOME}/bin/sqoop import     --connect jdbc:mysql://${hostname}/${database}     --username ${user}     --password ${password}      --table ${table}       --split-by docid     --hive-import     --hive-table lan.ding   --fields-terminated-by "	" --incremental  append  --check-column docid --last-value ${curr_max}       result=`mysql -h${hostname} -u${user} -p${password} ${database}< HDFS -> ODS -> DWD -> DWS -> ADS -> MySQL   具体流程: 1. MySQL业务通过Sqoop数据导入HDFS 2. 将HDFS数据导入Hive数仓ODS层 3. 将ODS数据简单清洗写入DWD层 4. 将DWD数据轻度汇总写入DWS层宽表 5. 将DWS层数据统计结果写入ADS层 6. 将ADS层数据通过Sqoop导出到MySQL汇总表3.3.2创建工作流1. 创建工作流
  2. 编辑工作流
  3. 上传脚本
  4. 添加文件
  就是刚才选择的脚本
  5. 填写参数
  脚本里需要的参数,尽量设置为动态自动获取,如 ${date}
  第一步的参数是所有文件和当天日期,后面的只需要日期,最后一步是导出所有结果,相应填入
  6. 依次添加后续任务
  添加文件和设置相应参数
  7. 保存,或者运行
  8. 状态提示
  运行后会有状态提示页面,可以看到任务进度
  9. 其他
  点击调度任务的页面情况
  定时调度1. 创建定时计划(schedule)
  2. 修改属性
  修改定时任务名和描述
  3. 添加任务
  添加需要定时调度的任务
  4. 设置调度时间
  5. Crontab高级语法模式
  6. 参数设置
  sm-workflow的参数都是写死的,没有设置动态,这里的下拉列表就不会有可选项。
  设置参数
  将sm-workflow的日期修改为 ${do_date},保存
  进入定时计划sm-dw中,会看到有参数 do_date
  填入相应参数,前一天日期 ${coord:formatTime(coord:dateOffset(coord:nominalTime(), -1, ‘DAY’), ‘yyyyMMdd’)}
  Oozie常用系统常量
  当然,也可以通过这样将参数传入workflow任务中,代码或者shell中需要的参数。
  如,修改sm-workflow 中的 sqoop_import.sh,添加一个参数 ${num}。
  编辑文件(需要登陆Hue的用户有对HDFS操作的权限),修改shell中的一个值为参数,保存。
  在workflow中,编辑添加参数 ${num} ,或者num=${num} 保存。
  进入schedule中,可以看到添加的参数,编辑输入相应参数即可。
  Bundle
  Bundle统一管理所有定时调度,阶段划分:Bundle > Schedule > workflow

长安汽车上半年利润大涨背后自主品牌发力但产销压力或长期存在2022年8月31日,长安汽车发布汽车上半年业绩报告。数据显示,2022年16月,长安汽车营收565。73亿元,同比下滑0。37归属于上市公司股东的净利润58。58亿元,同比上涨21980年代,回忆里的老西安白鹭湾,年轻人与摩托车(1988)白鹭湾,玩耍的孩子(1987)报恩寺附近,搬运买来的蜂窝煤(1987)报刊栏前(1984)报摊灞河古桥碑林博物馆(1981)碑林博物馆(1983)西安的个性地摊集市,每周仅开放2次,啥玩意都能买到来到一座城市旅游,想要得到最真实的感受,那么生活气息浓厚的集市是不能错过的,而在西安就有一个每周只开放两次的集市,这里啥玩意都能买到,是老西安人才知道的地方。花鸟鱼虫市场是很多城市这个藏在森林中的山谷,如何突出重围火起来?一架直升飞机在恩施地心谷上空盘旋,俯瞰地面,茂密的森林中,大地裂开了一条缝,目之所及,皆是风景。空中体验,是游览地心谷的第三只眼。行走在地心谷,玻璃桥皮筏艇地心飞仙空中魔毯地心天眼1939年5月,日本人加岛镜头里的山西临汾山西临汾是一座历史悠久的古城,是华夏民族的重要发祥地之一和黄河文明的摇篮,有华夏第一都之称。1939年5月,古老的临汾城即将举办一年一度盛大的尧庙大祭,此时,一名叫做加岛的日本记者CSGO个人想低价又好看的饰品推荐刚入坑CSGO的萌新,看见队友漂亮的皮肤绝对会想搞一把,但是一把几百块甚至上千万的价格令人望而却步。作为一个玩了三年的白银小菜,练技术不成只能转去玩皮肤,至今大大小小过手了近万块的创业夜市摆摊卖什么最火爆(附数据)条条道路通罗马,我们没有生在罗马,哈哈所以创业变成了我们通往罗马最重要的道路之一很多创业者都想选一些少点成本,没那么高技术壁垒的行业老许讲创业,今天给大家讲解下夜市摆摊卖什么好赚钱国务院发文!加快山东钢铁工业布局优化和结构调整近日,中华人民共和国中央人民政府网站发布了国务院关于支持山东深化新旧动能转换推动绿色低碳高质量发展的意见(以下简称意见)。意见中提到,坚持高端化绿色化集约化,促进钢铁石化企业兼并重深圳三大夜市街,必须封神来深圳一定不要错过这里的夜市,因为老家不一定能体验得到。每当夜色降临,深圳的大街小巷就开始暗潮涌动。告别白天的疲惫,上班族一头扎进深圳各大夜市做回自我。晚上的深圳褪去燥热,深圳的几夏天,我劝你一定要去一次呼和浩特夏天的呼和浩特是彩色的夏天悄悄的来了当全国都被暑气围绕的时候有这么一个地方绿草如茵牛马成群蓝天白云平均温度也很宜人这里就是呼和浩特!说起呼和浩特你会想到绿色没错,进入六月后呼和浩特宁夏有一座不会睡觉的城市夜市如酒吧,夜越深,它越亮作为外地人,认识宁夏的途径大概有这么几个,喜欢看武侠剧的人,会发现西夏的出镜率非常高,也让宁夏开始为人熟悉。而喜欢买枸杞的人,又对宁夏有了新的印象。再就是周星驰的那部大话西游,也让外交天团新面孔毛宁,气度非凡英姿飒爽,毕业院校却并非985导语现在很多同学都喜欢追星,各种偶像组合也是源源不断地涌现,可谓是乱花渐欲迷人眼,但比起这些小朋友,我国的外交天团才是真正的YYDS。外交部发言人是我国和国际的一个纽带,是我们的真59岁李连杰定居欧洲!两女儿长相甜美身材姣好,父女合照幸福温馨李连杰一家在国外定居在娱乐圈内,很多明星成名之后,都喜欢选择出国定居,一方面,是因为国外的月亮真的特别圆。另一方面,选择一个陌生的生活环境,周围的人都不认识自己,能够给他们提供更舒纳达尔告别美网等我做好准备再次参加比赛,我就会回来来源环球时报环球时报特约记者徐扬带着失败离开这座不可思议的体育场总是很伤心谢谢纽约,明年再见。美网出局后,纳达尔在个人社交平台与本赛季大满贯之旅作别。北京时间6日上午,纳达尔以13两面三刀的田馥甄,也终于走到了今天田馥甄曾经说我说话就是太直,不经修饰,会吓到人或让人不舒服,毕竟真实的话总是不好听。这是田馥甄私下的性格。如果仅仅是这样,那她还能获得一个真性情的称赞,娱乐圈中宁静,金星,蒋欣等人天生苦相的11位女明星,个个愁容满面,个个星途曲折,真玄学娱乐圈里同样是美女,她们的命运和仕途却大相径庭。观众讲究的是眼缘,有的明星虽然颜值过关,并且演技也在线,但却迟迟得不到观众的青睐。除了资源机遇人品等因素外,还跟面容有很大关系,尽管马脸厚唇大龅牙,她凭什么一直红?娱乐圈一向是美女帅哥的聚集地,那么颜值拿不出手,甚至有点丑的女生有出头之日吗?事实证明只要自己不放弃,即使是马脸厚唇大龅牙,也阻止不了你通向顶峰的征途。第一位吴君如长马脸,大嘴巴,老婆神仙颜值,孩子却大鼻子小眼睛凸嘴,这8位男星的基因太强了明星们作为活在聚光灯下的人,不仅自己经常出现在人们视线之中,就连他们的孩子也都备受人们关注。其中不少的星二代明明母亲长得貌美如花,但是他们却偏偏遗传了父亲的强大基因,变成了凸嘴巴大朱小伟大婚在即,大衣哥老招新用暂不领结婚证,防亚男又防陈萌大衣哥家又开始热闹了,朱小伟和陈萌的婚纱照传的全网皆知。疫情下的朱楼火热了起来,故事的主角大衣哥也是借机炒了一把。大衣哥团队放出朱小伟和陈萌的婚纱照,足以说明结婚在即。这次陈萌能不辞掉央视铁饭碗转行做演员,这5位明星有人红了,有人后悔了文丨2号探秘人编辑丨2号探秘人央视作为国内公信度最高的媒体平台,是众多传媒学子心向往之的神殿。不光是因为它能让你有在全国人民面前露脸的机会,它还是一个公认有编制的铁饭碗。然而却有许李沁,张萌,刘涛三位女明星究竟谁穿军装最好看一位九零后两位八零后三位女明星,谁穿军装最帅?愉快图一来自人间天堂的苏州美女李沁,她具有江南水乡的灵气,颇显大家闺秀的风范,亭亭玉立之中彰显出清丽脱俗的淡雅如菊。一股清香扑鼻的气息娱乐圈至今的未解之谜,鞠婧祎有没有整容?娱乐圈至今的未解之谜,鞠婧祎有没有整容?从鞠婧祎早年的选秀视频,我们不难发现,鞠婧祎从前和现在的样貌完全是两个人!面对质疑,她却一直否认声称自己现在的样子完全就是纯天然的。但是她早
上了年纪要忌茶?建议40岁后,牢记这3不喝,早知早受益中国是茶的故乡,更是茶叶的发源地,饮茶风俗更是流传已久。时至今日,茶已经成为我们的生活必需品,更是人们的开门七件事之一,更有一些好茶者时时刻刻都离不开茶,当然,相信很多人都会发现,连续2天上太阳报头版!英超最贵球员放飞自我,1夜花掉66万人民币26岁的英格兰国脚格拉利什彻底放飞自我,连续两天上了太阳报的头版。昨天,太阳报报道称格拉利什在美国拉斯维加斯的一家夜店玩到凌晨3点,一夜花了8万英镑,折合人民币66万。当然,这对于7000万到200万!世界冠军主力成巴萨水货,4年内身价狂跌德国转会市场更新了最新一期的球员身价,28岁的巴萨中卫乌姆蒂蒂身价不变,依然是200万欧。2016年夏天,乌姆蒂蒂帮助法国队获得欧洲杯亚军,他也从里昂加盟巴萨,转会费2500万欧。世界杯举办地公布,都不及卡塔尔ampampquot2022ampampquot大楼出圈!建筑足球吸睛?来源建道筑格ArchiDogs6月16日国际足联正式公布2026年世界杯举办计划美加墨联合举办,共16座城市入选!其中美国11座城市西雅图圣弗朗西斯科洛杉矶堪萨斯城达拉斯休斯敦波士这六款骁龙888处理器的手机来到了千元机市场在夏威夷举办的骁龙技术峰会上,高通宣布推出最新一代的旗舰级SoC高通骁龙8885G移动平台及骁龙X605G基带,这是该公司首次在8系处理器中集成5G调制解调器骁龙888是一款定位为世界旅游地图揽胜亚洲泰国普吉通过世界旅游地图来看世界各国的著名的旅游景点,领略世界的大好河山。第九篇亚洲泰国泰国旧名暹罗。位于东南亚中南半岛中部。面积51。3万平方公里。人口6523万。民族众多,泰族占人口的宋城演艺,以中国人的角度看世界宋城演艺发展股份有限公司,是一家从事主题公园和旅游文化相结合演艺类投资,开发和经营优秀企业,公司主营业务涵盖了文化类主题公园,宋城景区和游玩类主题公园杭州乐园。宋城演艺目前是中国颇这是一枚全世界仅有的,也是历史上唯一的,一枚含金量最高的金牌8月8日,东京奥运会结束,中国队以38枚金牌32枚银牌和18枚铜牌顺利结束。手持一枚明亮的金牌,她比8枚鸡蛋略重,材料成本约5000元。根据国际奥委会的相关规定,奥运会金牌必须至少趣闻世界上最可爱的电动汽车开始生产,大家觉得怎样?目前在欧洲市场已经开始交付。微型汽车确实是一个概念,它常常会让美国人失去购买汽车的热情。这是因为国家的地域使得在许多地方,需要拥有一辆更大更快的汽车才是必须的。对于电动汽车来说,情特斯拉陶琳中国有良好的营商环境,高水平中国制造输送全世界6月19日消息,在第三届跨国公司领导人青岛峰会开幕式上,公司全球副总裁陶琳在线致辞。陶琳表示,中国用户对电动汽车的接受程度在逐步增加,中国市场在全球新能源汽车产业中发挥着不可或缺的风雨中的漓江,涨水也是很美6月20日上午,天一片灰蒙蒙的,大雨哗啦啦的下着,听说灵川县兴安县强降雨,漓江上游青狮潭斧子口小溶江等几个水库泄洪,漓江水位迅速上涨,我连忙撑起一把大伞,冒雨步行前往漓江看大水。到