當前位置:首頁 » 編程語言 » sql運算出現傾斜
擴展閱讀
webinf下怎麼引入js 2023-08-31 21:54:13
堡壘機怎麼打開web 2023-08-31 21:54:11

sql運算出現傾斜

發布時間: 2022-08-24 22:23:36

① 幾種數據傾斜的情況,並解釋為什麼會傾斜,以及如何解決

  1. Mapjoin是一種避免避免數據傾斜的手段

允許在map階段進行join操作,MapJoin把小表全部讀入內存中,在map階段直接拿另外一個表的數據和內存中表數據做匹配,由於在map是進行了join操作,省去了rece運行的效率也會高很多


在《hive:join遇到問題》有具體操作


在對多個表join連接操作時,將小表放在join的左邊,大表放在Jion的右邊,


在執行這樣的join連接時小表中的數據會被緩存到內存當中,這樣可以有效減少發生內存溢出錯誤的幾率


2. 設置參數


hive.map.aggr = true


hive.groupby.skewindata=true 還有其他參數


3.sql語言調節


比如: group by維度過小時:採用sum() group by的方式來替換count(distinct)完成計算


4.StreamTable


將在recer中進行join操作時的小table放入內存,而大table通過stream方式讀取

② 數據傾斜處理一般從什麼地方入手

觸發shuffle的常見運算元:distinct、groupByKey、receByKey、aggregateByKey、join、cogroup、repartition等。 要解決數據傾斜的問題,首先要定位數據傾斜發生在什麼地方,首先是哪個stage,直接在Web UI上看就可以,然後查看運行耗時的task,查看數據是否傾斜了! 根據這個task,根據stage劃分原理,推算出數據傾斜發生在哪個shuffle類運算元上。 查看導致數據傾斜的key的數據分布情況 根據執行操作的不同,可以有很多種查看key分布的方式: 1,如果是Spark SQL中的group by、join語句導致的數據傾斜,那麼就查詢一下SQL中使用的表的key分布情況。 2,如果是Spark RDD執行shuffle運算元導致的數據傾斜,那麼可以在Spark作業中加入查看key分布的代碼,比如RDD.countByKey()。然後對統計出來各個key出現的次數,collect、take到客戶端列印一下,就可以看到key的分布情況。 比如針對wordCount案例,最後的receByKey運算元導致了數據傾斜: val sampledPairs = pairs.sample(false,0.1) //對pairs采樣10% val sampledWordCounts = sampledPairs.countByKey() sampledWordCounts.foreach(println(_)) 數據傾斜的解決辦法 方案一:使用Hive ETL預處理數據 適用場景:導致數據傾斜的是Hive表,Hive表中的數據本身很不均勻,業務場景需要頻繁使用Spark對Hive表執行某個分析操作。 實現思路:提前將join等操作執行,進行Hive階段的ETL。將導致數據傾斜的shuffle前置。 優缺點:實現簡單,Spark作業性能提升,但是Hive ETL還是會發生數據傾斜,導致Hive ETL的速度很慢。 實踐經驗:將數據傾斜提前到上游的Hive ETL,每天就執行一次,慢就慢點吧。 方案二:過濾少數導致傾斜的key 適用場景:少數幾個key導致數據傾斜,而且對計算本身影響並不大的話。 實現思路:比如Spark SQL中直接用where條件過濾掉這些key,如果是RDD的話,用filter運算元過濾掉這些key。如果是動態判斷哪些key的數據量最多然後再進行過濾,那麼可以使用sample運算元對RDD進行采樣,然後計算出每個key的數量,取數據量最多的key過濾掉即可。 優缺點:實現簡單,效果也好。缺點是一般情況下導致傾斜的key還是很多的,不會是少數。 解決方案三:提高shuffle操作的並行度 適用場景:直接面對數據傾斜的簡單解決方案。 實現思路:對RDD執行shuffle運算元時,給shuffle運算元傳入一個參數,比如receByKey(1000),該參數就設置了這個shuffle運算元執行的shuffle read task的數量。對於Spark SQL中的shuffle類語句,比如group by,join等,需要設置一個參數,即spark.sql.shuffle.partitions,該參數默認值是200,對於很多場景來說有點過小。 優缺點:簡單能緩解,缺點是沒有根除問題,效果有限。 解決方案四:兩階段聚合(局部聚合+全局聚合) 適用場景:對RDD執行receByKey等聚合類shuffle運算元或者在Spark SQL中使用group by語句進行分組聚合時,比較適合這種方案。 實現思路:先局部聚合,給每個key打一個小范圍的隨機數,比如10以內的隨機數,相當於分成10份,一個task分成10個task。聚合聚合後,去掉key上的隨機數前綴,再次進行全局聚合操作。 優缺點:大幅度緩解數據傾斜,缺點是僅適用於聚合類的shuffle操作。 解決方案五:將rece join轉為map join

③ hive運行sql rece 為1 ,跑不動怎麼處理

1.jpg 優化可以從幾個方面著手:1. 好的模型設計事半功倍。2. 解決數據傾斜問題。3. 減少job數。4. 設置合理的map rece的task數,能有效提升性能。(比如,10w+級別的計算,用160個rece,那是相當的浪費,1個足夠)。5. 自己動手寫sql解決數據傾斜問題是個不錯的選擇。set hive.groupby.skewindata=true;這是通用的演算法優化,但演算法優化總是漠視業務,習慣性提供通用的解決方法。 Etl開發人員更了解業務,更了解數據,所以通過業務邏輯解決傾斜的方法往往更精確,更有效。6. 對count(distinct)採取漠視的方法,尤其數據大的時候很容易產生傾斜問題,不抱僥幸心理。自己動手,豐衣足食。7. 對小文件進行合並,是行至有效的提高調度效率的方法,假如我們的作業設置合理的文件數,對雲梯的整體調度效率也會產生積極的影響。8. 優化時把握整體,單個作業最優不如整體最優。

④ sql中怎樣得到一組數的斜率

首先要確定斜率的概念:斜率,亦稱「角系數」,表示一條直線相對於橫坐標軸的傾斜程度。一條直線與某平面直角坐標系橫坐標軸正半軸方向所成的角的正切值即該直線相對於該坐標系的斜率。 如果直線與x軸互相垂直,直角的正切值無窮大,故此直線,不存在斜率。 當直線L的斜率存在時,對於一次函數y=kx+b,(斜截式)k即該函數圖像的斜率。所以一組數的斜率無法查詢,你想要的是最大斜率吧

⑤ Hive SQL處理數據傾斜的方法有哪些

可以在查詢的結尾加上diistribute by rand(),回答如有幫助請採納,謝謝!

⑥ sql 中『斜杠/』和『反斜杠\』各有什麼作用啊求助~

在寫完命令後直接打上斜杠,就開始執行命令代碼了。
完了這些命令信息就會保存在緩存里,
當你想再次執行該命令時,無需再次輸入,只要再敲個反斜杠就好了,系統會把你剛才寫的命令再次執行一遍,當然在這期間要沒有別的命令快被執行。

⑦ 哪些寫法會導致sql語句索引失效

1、索引列有函數處理或隱式轉換,不走索引
2、索引列傾斜,個別值查詢時,走索引代價比走全表掃描高,所以不走索引
3、索引列沒有限制 not null,索引不存儲空值,如果不限制索引列是not null,oracle會認為索引列有可能存在空值,所以不會按照索引計算)

⑧ 關於SQL資料庫優化

具體要注意的:
1.應盡量避免在 where 子句中對欄位進行 null 值判斷,否則將導致引擎放棄使用索引而進行全表掃描,如:
select id from t where num is null
可以在num上設置默認值0,確保表中num列沒有null值,然後這樣查詢:
select id from t where num=0
2.應盡量避免在 where 子句中使用!=或<>操作符,否則將引擎放棄使用索引而進行全表掃描。優化器將無法通過索引來確定將要命中的行數,因此需要搜索該表的所有行。
3.應盡量避免在 where 子句中使用 or 來連接條件,否則將導致引擎放棄使用索引而進行全表掃描,如:
select id from t where num=10 or num=20
可以這樣查詢:
select id from t where num=10
union all
select id from t where num=20
4.in 和 not in 也要慎用,因為IN會使系統無法使用索引,而只能直接搜索表中的數據。如:
select id from t where num in(1,2,3)
對於連續的數值,能用 between 就不要用 in 了:
select id from t where num between 1 and 3
5.盡量避免在索引過的字元數據中,使用非打頭字母搜索。這也使得引擎無法利用索引。
見如下例子:
SELECT * FROM T1 WHERE NAME LIKE 『%L%』
SELECT * FROM T1 WHERE SUBSTING(NAME,2,1)=』L』
SELECT * FROM T1 WHERE NAME LIKE 『L%』
即使NAME欄位建有索引,前兩個查詢依然無法利用索引完成加快操作,引擎不得不對全表所有數據逐條操作來完成任務。而第三個查詢能夠使用索引來加快操作。
6.必要時強制查詢優化器使用某個索引,如在 where 子句中使用參數,也會導致全表掃描。因為SQL只有在運行時才會解析局部變數,但優化程序不能將訪問計劃的選擇推遲到運行時;它必須在編譯時進行選擇。然而,如果在編譯時建立訪問計劃,變數的值還是未知的,因而無法作為索引選擇的輸入項。如下面語句將進行全表掃描:
select id from t where num=@num
可以改為強制查詢使用索引:
select id from t with(index(索引名)) where num=@num
7.應盡量避免在 where 子句中對欄位進行表達式操作,這將導致引擎放棄使用索引而進行全表掃描。如:
SELECT * FROM T1 WHERE F1/2=100
應改為:
SELECT * FROM T1 WHERE F1=100*2
SELECT * FROM RECORD WHERE SUBSTRING(CARD_NO,1,4)=』5378』
應改為:
SELECT * FROM RECORD WHERE CARD_NO LIKE 『5378%』
SELECT member_number, first_name, last_name FROM members
WHERE DATEDIFF(yy,datofbirth,GETDATE()) > 21
應改為:
SELECT member_number, first_name, last_name FROM members
WHERE dateofbirth < DATEADD(yy,-21,GETDATE())
即:任何對列的操作都將導致表掃描,它包括資料庫函數、計算表達式等等,查詢時要盡可能將操作移至等號右邊。
8.應盡量避免在where子句中對欄位進行函數操作,這將導致引擎放棄使用索引而進行全表掃描。如:
select id from t where substring(name,1,3)='abc'--name以abc開頭的id
select id from t where datediff(day,createdate,'2005-11-30')=0--『2005-11-30』生成的id
應改為:
select id from t where name like 'abc%'
select id from t where createdate>='2005-11-30' and createdate<'2005-12-1'
9.不要在 where 子句中的「=」左邊進行函數、算術運算或其他表達式運算,否則系統將可能無法正確使用索引。
10.在使用索引欄位作為條件時,如果該索引是復合索引,那麼必須使用到該索引中的第一個欄位作為條件時才能保證系統使用該索引,否則該索引將不會被使用,並且應盡可能的讓欄位順序與索引順序相一致。
11.很多時候用 exists是一個好的選擇:
select num from a where num in(select num from b)
用下面的語句替換:
select num from a where exists(select top 1 from b where num=a.num)
SELECT SUM(T1.C1)FROM T1 WHERE(
(SELECT COUNT(*)FROM T2 WHERE T2.C2=T1.C2>0)
SELECT SUM(T1.C1) FROM T1WHERE EXISTS(
SELECT * FROM T2 WHERE T2.C2=T1.C2)
兩者產生相同的結果,但是後者的效率顯然要高於前者。因為後者不會產生大量鎖定的表掃描或是索引掃描。
如果你想校驗表裡是否存在某條紀錄,不要用count(*)那樣效率很低,而且浪費伺服器資源。可以用EXISTS代替。如:
IF (SELECT COUNT(*) FROM table_name WHERE column_name = 'xxx')
可以寫成:
IF EXISTS (SELECT * FROM table_name WHERE column_name = 'xxx')
經常需要寫一個T_SQL語句比較一個父結果集和子結果集,從而找到是否存在在父結果集中有而在子結果集中沒有的記錄,如:
SELECT a.hdr_key FROM hdr_tbl a---- tbl a 表示tbl用別名a代替
WHERE NOT EXISTS (SELECT * FROM dtl_tbl b WHERE a.hdr_key = b.hdr_key)
SELECT a.hdr_key FROM hdr_tbl a
LEFT JOIN dtl_tbl b ON a.hdr_key = b.hdr_key WHERE b.hdr_key IS NULL
SELECT hdr_key FROM hdr_tbl
WHERE hdr_key NOT IN (SELECT hdr_key FROM dtl_tbl)
三種寫法都可以得到同樣正確的結果,但是效率依次降低。
12.盡量使用表變數來代替臨時表。如果表變數包含大量數據,請注意索引非常有限(只有主鍵索引)。
13.避免頻繁創建和刪除臨時表,以減少系統表資源的消耗。
14.臨時表並不是不可使用,適當地使用它們可以使某些常式更有效,例如,當需要重復引用大型表或常用表中的某個數據集時。但是,對於一次性事件,最好使用導出表。
15.在新建臨時表時,如果一次性插入數據量很大,那麼可以使用 select into 代替 create table,避免造成大量 log ,以提高速度;如果數據量不大,為了緩和系統表的資源,應先create table,然後insert。
16.如果使用到了臨時表,在存儲過程的最後務必將所有的臨時表顯式刪除,先 truncate table ,然後 drop table ,這樣可以避免系統表的較長時間鎖定。

17.在所有的存儲過程和觸發器的開始處設置 SET NOCOUNT ON ,在結束時設置 SET NOCOUNT OFF 。無需在執行存儲過程和觸發器的每個語句後向客戶端發送 DONE_IN_PROC 消息。
18.盡量避免大事務操作,提高系統並發能力。
19.盡量避免向客戶端返回大數據量,若數據量過大,應該考慮相應需求是否合理。

20. 避免使用不兼容的數據類型。例如float和int、char和varchar、binary和varbinary是不兼容的。數據類型的不兼容可能使優化器無法執行一些本來可以進行的優化操作。例如:
SELECT name FROM employee WHERE salary > 60000
在這條語句中,如salary欄位是money型的,則優化器很難對其進行優化,因為60000是個整型數。我們應當在編程時將整型轉化成為錢幣型,而不要等到運行時轉化。
21.充分利用連接條件,在某種情況下,兩個表之間可能不只一個的連接條件,這時在 WHERE 子句中將連接條件完整的寫上,有可能大大提高查詢速度。
例:
SELECT SUM(A.AMOUNT) FROM ACCOUNT A,CARD B WHERE A.CARD_NO = B.CARD_NO
SELECT SUM(A.AMOUNT) FROM ACCOUNT A,CARD B WHERE A.CARD_NO = B.CARD_NO AND A.ACCOUNT_NO=B.ACCOUNT_NO
第二句將比第一句執行快得多。
22、使用視圖加速查詢
把表的一個子集進行排序並創建視圖,有時能加速查詢。它有助於避免多重排序 操作,而且在其他方面還能簡化優化器的工作。例如:
SELECT cust.name,rcvbles.balance,……other columns
FROM cust,rcvbles
WHERE cust.customer_id = rcvlbes.customer_id
AND rcvblls.balance>0
AND cust.postcode>「98000」
ORDER BY cust.name
如果這個查詢要被執行多次而不止一次,可以把所有未付款的客戶找出來放在一個視圖中,並按客戶的名字進行排序:
CREATE VIEW DBO.V_CUST_RCVLBES
AS
SELECT cust.name,rcvbles.balance,……other columns
FROM cust,rcvbles
WHERE cust.customer_id = rcvlbes.customer_id
AND rcvblls.balance>0
ORDER BY cust.name
然後以下面的方式在視圖中查詢:
SELECT * FROM V_CUST_RCVLBES
WHERE postcode>「98000」
視圖中的行要比主表中的行少,而且物理順序就是所要求的順序,減少了磁碟I/O,所以查詢工作量可以得到大幅減少。
23、能用DISTINCT的就不用GROUP BY
SELECT OrderID FROM Details WHERE UnitPrice > 10 GROUP BY OrderID
可改為:
SELECT DISTINCT OrderID FROM Details WHERE UnitPrice > 10
24.能用UNION ALL就不要用UNION
UNION ALL不執行SELECT DISTINCT函數,這樣就會減少很多不必要的資源

35.盡量不要用SELECT INTO語句。
SELECT INOT 語句會導致表鎖定,阻止其他用戶訪問該表。
上面我們提到的是一些基本的提高查詢速度的注意事項,但是在更多的情況下,往往需要反復試驗比較不同的語句以得到最佳方案。最好的方法當然是測試,看實現相同功能的SQL語句哪個執行時間最少,但是資料庫中如果數據量很少,是比較不出來的,這時可以用查看執行計劃,即:把實現相同功能的多條SQL語句考到查詢分析器,按CTRL+L看查所利用的索引,表掃描次數(這兩個對性能影響最大),總體上看詢成本百分比即可。

今天在itput上看了一篇文章,是討論一個語句的優化:
原貼地址: http://www.itpub.net/viewthread.php?tid=1015964&extra=&page=1
一,發現問題 優化的語句:
請問以下語句如何優化:
CREATE TABLE aa_001
( ip VARCHAR2(28),
name VARCHAR2(10),
password VARCHAR2(30) )

select * from aa_001 where ip in (1,2,3) order by name desc;
--目前表中記錄有一千多萬條左右,而且in中的值個數是不確定的。
以上就是優化的需要優化的語句和情況。

不少人在後面跟帖:有的說沒辦法優化,有的說將IN該為EXISTS,有的說在ip上建立索引復合索引(ip,name)等等。
二,提出問題 那這樣的情況,能優化嗎,如何優化?今天就來討論這個問題。
三,分析問題 1,數據量1千萬多條。
2,in中的值個數是不確定
3.1 分析數據分布 這里作者沒有提到ip列的數據的分布情況,目前ip列的數據分布可能有以下幾種:
1,ip列(數據唯一,或者數據重復的概率很小)
2,ip列 (數據不均勻,可能有些數據重復多,有些重復少)
3,ip列 (數據分布比較均勻,數據大量重復,主要就是一些同樣的數據(可能只有上萬級別不同的ip數據等)

解決問題:
1,對於第一種數據分布情況,只要在ip列建立一個索引即可。這時不管表有多少行, in個數是不確定的情況下,都很快。
2,對應第二中數據分布情況,在ip列建立索引,效果不好。因為數據分布不均勻,可能有些快,有些慢
3,對應第三種數據分布情況,在ip列建立索引,速度肯定慢。
注意:這里的 order by name desc 是在取出數據後再排序的。而不是取數據前排序

對於2,3兩個情況,因為都是可能需要取出大量的數據,優化器就採用表掃描(table scan),而不是索引查找(index seek) ,速度很慢,因為這時表掃描效率要優於索引查找,特別是高並發情況下,效率很低。

那對應2,3中情況,如何處理。是將in改成exists。其實在sql server 2005和oracle里的優化器在in後面數據少時,效率是一樣的。這時採用一般的索引效率很低。這時如果在ip列上建立聚集索引,效率會比較高。我們在SQL server 2005中做個測試。

表:[dbo].[[zping.com]]]中有約200萬條數據。包含列Userid, id, Ruleid等列。按照上面的情況查詢一下類似語句:
select * from [dbo].[[zping.com]]] where
userid in ('',''
,'') order by Ruleid desc

我們先看userid的數據分布情況,執行下面語句:
select userid,count(*) from [dbo].[[zping.com]]] group by userid order by 2
這時我們看看數據分布:總共有379條數據,數據兩從1到15萬都有,數據分布傾斜嚴重。下圖是其中一部分。

這時如果在ip上建立非聚集索引,效率很低,而且就是強行索引掃描,效率也很低,會發現IO次數比表掃描還高。這時只能在ip上建立聚集索引。這時看看結果。

這時發現,搜索採用了(clustered index seek)聚集搜索掃描。
在看看查詢返回的結果:
(156603 行受影響)
表 '[zping.com]'。掃描計數 8,邏輯讀取 5877 次,物理讀取 0 次,預讀 0 次,lob 邏輯讀取 0 次,lob 物理讀取 0 次,lob 預讀 0 次。
表 'Worktable'。掃描計數 0,邏輯讀取 0 次,物理讀取 0 次,預讀 0 次,lob 邏輯讀取 0 次,lob 物理讀取 0 次,lob 預讀 0 次。
返回15萬行,才不到6千次IO。效率較高,因為這15萬行要排序,查詢成本里排序佔了51%。當然可以建立(userid,Ruleid)復合聚集索引,提高性能,但這樣做DML維護成本較高。建議不採用。

從上面的測試例子可以看出, 優化的解決辦法:
數據分布為1:建立ip索引即可
數據分布為2,3:在ip列建立聚集索引。

⑨ hive中sql運算出現傾斜的情況,主要原因有哪些

1. Mapjoin是一種避免避免數據傾斜的手段

允許在map階段進行join操作,MapJoin把小表全部讀入內存中,在map階段直接拿另外一個表的數據和內存中表數據做匹配,由於在map是進行了join操作,省去了rece運行的效率也會高很多

在《hive:join遇到問題》有具體操作

在對多個表join連接操作時,將小表放在join的左邊,大表放在Jion的右邊,

在執行這樣的join連接時小表中的數據會被緩存到內存當中,這樣可以有效減少發生內存溢出錯誤的幾率

2. 設置參數

hive.map.aggr = true

hive.groupby.skewindata=true 還有其他參數

3.SQL語言調節

比如: group by維度過小時:採用sum() group by的方式來替換count(distinct)完成計算

4.StreamTable

將在recer中進行join操作時的小table放入內存,而大table通過stream方式讀取

⑩ 查詢td資料庫傾斜率sql

保持原來的MySQL協議,這樣以前訪問MySQL系統的C++、Java各類系統都不需要修改,DBA能繼續保持原來大部分使用習慣。
自動的跨IDC容災切換,同時保證數據一致性,對於提交成功的事務保證一筆不丟,達到銀行級對容災的要求。
靈活的容量伸縮機制,對業務透明,解決MySQL本身擴容不靈活的問題。
重點支持OLTP類型的在線業務。