text
stringlengths
101
418k
工业设计 素描 - 速写 - 水粉 - 水彩 - 平面构成 - 立体构成 工业设计史 - 设计思维与表达 - 人机工程学 Solidworks,Blender 中选一 平面构成 - GIMP,Photoshop 选一 - Inkscape - Adobe Illustrator 选一 HTML - JavaScript
國中數學/國中數學七年級/3-2 解一元一次方程式 在上個單元我們學到的式子的化簡,當時有提過式子的值: 已知 x = 10 {\displaystyle x=10} ,則式子 2 x + 7 = 2 × 10 + 7 = 20 + 7 = 27 {\displaystyle 2x+7=2\times 10+7=20+7=27} 現在我們想要反過來問:在 x {\displaystyle x} 是多少的情況下,式子 2 x + 7 {\displaystyle 2x+7} 的值剛好是 27 {\displaystyle 27} 呢?這個問題很簡單,我們剛剛代入的 x = 10 {\displaystyle x=10} 就是其中一個答案,但是我們想問的是:還有沒有其他答案? 如果沒有測試過,我們想知道在 x {\displaystyle x} 是多少的情況下,式子 2 x + 7 {\displaystyle 2x+7} 的值剛好是 10 {\displaystyle 10} ? 本單元將解決這樣類型的問題。 以前我們有使用( )或是□代表未知數的值,如: 雨婷原本有一些糖果,她吃掉了 15 {\displaystyle 15} 顆,還剩下 13 {\displaystyle 13} 顆。雨婷原本有幾顆糖果? 設雨婷有( )顆糖果,根據題意可以列出式子( ) − 15 = 13 {\displaystyle -15=13} ,可以知道( ) = 13 + 15 = 28 {\displaystyle =13+15=28} ,所以雨婷原本有 28 {\displaystyle 28} 顆糖果。 雨婷有 28 {\displaystyle 28} 顆糖果,剛好是若帆擁有糖果數量的 4 {\displaystyle 4} 倍。若帆有幾顆糖果? 設若帆有( )顆糖果,根據題意可以列出式子( ) × 4 = 28 {\displaystyle \times 4=28} ,可以知道( ) = 28 ÷ 4 = 7 {\displaystyle =28\div 4=7} ,所以若帆有 7 {\displaystyle 7} 顆糖果。 在前一個單元我們有提到,於國中階段以後,我們習慣用小寫英文字母 x {\displaystyle x} 、 y {\displaystyle y} 、 z {\displaystyle z} 等字母代替未知數,所以上面的列式就會變為 雨婷原本有一些糖果,她吃掉了 15 {\displaystyle 15} 顆,還剩下 13 {\displaystyle 13} 顆。雨婷原本有幾顆糖果? 設雨婷有 x {\displaystyle x} 顆糖果,根據題意可以列出式子 x − 15 = 13 {\displaystyle x-15=13} ,可以知道 x = 13 + 15 = 28 {\displaystyle x=13+15=28} ,所以雨婷原本有 28 {\displaystyle 28} 顆糖果。 雨婷有 28 {\displaystyle 28} 顆糖果,剛好是若帆擁有糖果數量的 4 {\displaystyle 4} 倍。若帆有幾顆糖果? 設若帆有 y {\displaystyle y} 顆糖果,根據題意可以列出式子 y × 4 = 28 {\displaystyle y\times 4=28} ,可以知道 y = 28 ÷ 4 = 7 {\displaystyle y=28\div 4=7} ,所以若帆有 7 {\displaystyle 7} 顆糖果。 在上面兩個例子出現的 x − 15 = 13 {\displaystyle x-15=13} 與 y × 4 = 28 {\displaystyle y\times 4=28} 這種未知數只有一個,而且未知數最高次方為一次,最後面還有出現等號的算式,我們稱作一元一次方程式。我們在之後說明如何判別一個式子是不是一元一次方程式。 如果 x = a {\displaystyle x=a} 可以讓一元一次方程式成立,那我們稱 x = a {\displaystyle x=a} 是一元一次方程式的一個解。 小測 1 以下哪個數是 5 x + 3 = 18 {\displaystyle 5x+3=18} 的解? 2 以下哪個數是 8 − 6 x = 14 {\displaystyle 8-6x=14} 的解? 3 以下哪個數是 5 ( y + 1 ) = 3 y − 1 {\displaystyle 5(y+1)=3y-1} 的解? 如下圖,在天平左端放置一顆圓球,右端放置200公克的砝碼,兩端剛好平衡。 如果圓球的重量是 x {\displaystyle x} 公克,那麼上圖的平衡狀態我們可以寫作 x = 200 {\displaystyle x=200} 。 如果左右兩端各加上一個100公克的砝碼,那麼平衡也不會改變。 此時,上圖的平衡狀態我們可以寫作 x + 100 = 200 + 100 {\displaystyle x+100=200+100} 。 事實上,只要一開始平衡,左右兩端加上相同重量的物品,也不會改變平衡的狀態,此即: 若 a = b {\displaystyle a=b} 且 c {\displaystyle c} 是任意一個數,則 a + c = b + c {\displaystyle a+c=b+c} 。 與剛剛反過來,如下圖,在天平左端放置1顆圓球與1個100公克的砝碼,右端放置200公克與100公克的砝碼各1個,兩端剛好平衡。 如果左側的重量總共是 y {\displaystyle y} 公克,我們可以記作 y = 300 {\displaystyle y=300} 如果左右兩端各自拿走那1個100公克的砝碼,那麼平衡也不會改變。 此時,上圖的平衡狀態我們可以寫作 y − 100 = 200 − 100 {\displaystyle y-100=200-100} 。 事實上,只要一開始平衡,左右兩端拿走相同重量,也不會改變平衡的狀態,此即: 若 a = b {\displaystyle a=b} 且 c {\displaystyle c} 是任意一個數,則 a − c = b − c {\displaystyle a-c=b-c} 。 如下圖,在天平左端放置一顆圓球,右端放置200公克的砝碼,兩端剛好平衡。 如果圓球的重量是 x {\displaystyle x} 公克,那麼上圖的平衡狀態我們可以寫作 x = 200 {\displaystyle x=200} 。 如果左右兩端變成原本數量的3倍,那麼平衡也不會改變。 此時,上圖的平衡狀態我們可以寫作 x × 3 = 200 × 3 {\displaystyle x\times 3=200\times 3} 。 事實上,只要一開始平衡,左右兩端各自變成原來相同的某個倍數也不會改變平衡的狀態,此即: 若 a = b {\displaystyle a=b} 且 c {\displaystyle c} 是任意一個數,則 a × c = b × c {\displaystyle a\times c=b\times c} 。 與剛剛反過來,如下圖,在天平左端放置3顆圓球,右端放置3個200公克的砝碼,兩端剛好平衡。 如果左端總重量是 z {\displaystyle z} 公克,那麼上圖的平衡狀態我們可以寫作 z = 600 {\displaystyle z=600} 。 如果左右兩端變成原本數量的 1 3 {\displaystyle {\frac {1}{3}}} 倍(也就是除以3),那麼平衡也不會改變。 此時,上圖的平衡狀態我們可以寫作 z ÷ 3 = 600 ÷ 3 {\displaystyle z\div 3=600\div 3} 。 事實上,只要一開始平衡,左右兩端各自除以相同的某數也不會改變平衡的狀態,但是不能除以 0 {\displaystyle 0} ,此即: 若 a = b {\displaystyle a=b} 且 c {\displaystyle c} 是不為 0 {\displaystyle 0} 的任意一個數,則 a ÷ c = b ÷ c {\displaystyle a\div c=b\div c} 。 目標是讓未知數 ( x ) {\displaystyle (x)} 只出現在等式的左邊。 Q 1. {\displaystyle Q1.} 解方程式 x − 105 = 124 {\displaystyle x-105=124} 。 解: x − 105 = 124 {\displaystyle x-105=124} ⇒ x − 105 + 105 = 124 + 105 {\displaystyle \Rightarrow x-105+105=124+105} (等量加法公理) ⇒ x = 124 + 105 {\displaystyle \Rightarrow x=124+105} (化簡左邊式子) ⇒ x = 229 {\displaystyle \Rightarrow x=229} Q 2. {\displaystyle Q2.} 解方程式 x + 33 = 97 {\displaystyle x+33=97} 。 解: x + 33 = 97 {\displaystyle x+33=97} ⇒ x + 33 − 33 = 97 − 33 {\displaystyle \Rightarrow x+33-33=97-33} (等量減法公理) ⇒ x = 97 − 33 {\displaystyle \Rightarrow x=97-33} (化簡左邊式子) ⇒ x = 64 {\displaystyle \Rightarrow x=64} Q 3. {\displaystyle Q3.} 解方程式 x ÷ 12 = 15 {\displaystyle x\div 12=15} 。 解: x ÷ 12 = 15 {\displaystyle x\div 12=15} ⇒ x ÷ 12 × 12 = 15 × 12 {\displaystyle \Rightarrow x\div 12\times 12=15\times 12} (等量乘法公理) ⇒ x = 15 × 12 {\displaystyle \Rightarrow x=15\times 12} (化簡左邊式子) ⇒ x = 180 {\displaystyle \Rightarrow x=180} Q 4. {\displaystyle Q4.} 解方程式 x × 47 = 1880 {\displaystyle x\times 47=1880} 。 解: x × 47 = 1880 {\displaystyle x\times 47=1880} ⇒ x × 47 ÷ 47 = 1880 ÷ 47 {\displaystyle \Rightarrow x\times 47\div 47=1880\div 47} (等量除法公理) ⇒ x = 1880 ÷ 47 {\displaystyle \Rightarrow x=1880\div 47} (化簡左邊式子) ⇒ x = 40 {\displaystyle \Rightarrow x=40} 注意上面 Q 1 {\displaystyle Q1} 到 Q 4 {\displaystyle Q4} ,如果移除等量公理那一步: x − 105 = 124 {\displaystyle x{\color {red}-}105=124} ⇒ x = 124 + 105 {\displaystyle \Rightarrow x=124{\color {red}+}105} ⇒ x = 229 {\displaystyle \Rightarrow x=229} x + 33 = 97 {\displaystyle x{\color {red}+}33=97} ⇒ x = 97 − 33 {\displaystyle \Rightarrow x=97{\color {red}-}33} ⇒ x = 64 {\displaystyle \Rightarrow x=64} x ÷ 12 = 15 {\displaystyle x{\color {red}\div }12=15} ⇒ x = 15 × 12 {\displaystyle \Rightarrow x=15{\color {red}\times }12} ⇒ x = 180 {\displaystyle \Rightarrow x=180} x × 47 = 1880 {\displaystyle x{\color {red}\times }47=1880} ⇒ x = 1880 ÷ 47 {\displaystyle \Rightarrow x=1880{\color {red}\div }47} ⇒ x = 40 {\displaystyle \Rightarrow x=40} 有注意到嗎? 設 a {\displaystyle a} 、 b {\displaystyle b} 為兩個數,則 1. x + a = b ⇒ x = b − a {\displaystyle 1.x+a=b\Rightarrow x=b-a} 2. x − a = b ⇒ x = b + a {\displaystyle 2.x-a=b\Rightarrow x=b+a} 3. x × a = b ⇒ x = b ÷ a ( a ≠ 0 ) {\displaystyle 3.x\times a=b\Rightarrow x=b\div a(a\neq 0)} 4. x ÷ a = b ⇒ x = b × a ( a ≠ 0 ) {\displaystyle 4.x\div a=b\Rightarrow x=b\times a(a\neq 0)} 以上四式稱為移項法則。 請注意:無論是等量公理或是移項法則,就算 a {\displaystyle a} 、 b {\displaystyle b} 、 c {\displaystyle c} 是未知數或是代數式也是可以的。但未知數或代數式必須確定該式不等於 0 {\displaystyle 0} 才能夠進行除法運算。 為了嚴格分辨方程式,所以我們必須嚴格定義一元一次方程式的形式,如下: 一元一次方程式 式子經由化簡之後形如 a x = b {\displaystyle ax=b} 的形式,其中 a ≠ 0 {\displaystyle a\neq 0} 。 有些方程式看起來很像一元一次方程式,但是我們不能確定,這時我們可以利用移項法則,確定是否能夠整理成 a x = b {\displaystyle ax=b} 且 a ≠ 0 {\displaystyle a\neq 0} 的形式。 舉些例子: x 7 = 5 {\displaystyle {\frac {x}{7}}=5} 是一元一次方程式,因為 x 7 = 5 {\displaystyle {\frac {x}{7}}=5} 可以改寫成 1 7 x = 5 {\displaystyle {\frac {1}{7}}x=5} ,符合 a x = b {\displaystyle ax=b} 且 a ≠ 0 {\displaystyle a\neq 0} 的形式。 6 x + 2 = 3 ( 2 x + 7 ) {\displaystyle 6x+2=3(2x+7)} 不是一元一次方程式,因為 6 x + 2 = 3 ( 2 x + 7 ) ⇒ 6 x + 2 = 6 x + 21 ⇒ 6 x − 6 x = 21 − 2 ⇒ 0 x = 19 {\displaystyle 6x+2=3(2x+7)\Rightarrow 6x{\color {blue}+2}={\color {red}6x}+21\Rightarrow 6x{\color {red}-6x}=21{\color {blue}-2}\Rightarrow 0x=19} ,不符合 a ≠ 0 {\displaystyle a\neq 0} 。 接下來要解的式子都是一元一次方程式。 在解方程式的時候,我們的目標就是讓等式一邊只剩下單一未知數。無論是使用等量公理或是移項法則,一般來說我們都會將將常數項(沒有未知數的項)挪到等號右邊,有未知數移到等號左邊,最後形成 a x = b {\displaystyle ax=b} 的算式, x = b a {\displaystyle x={\frac {b}{a}}} 。其實這也就解答了一開始所提的問題:,一元一次方程式 2 x + 7 = 27 {\displaystyle 2x+7=27} 的解只有一個可能,也就是 x = 10 {\displaystyle x=10} 。 要確定自己有沒有算錯,可以將 x {\displaystyle x} 帶回去原式檢驗看看,這個動作我們稱為「驗算」。我們建議初學者在解完方程式的時候都必須做驗算的動作。 驗算:等號左邊= 4 × 5 − 7 = 20 − 7 = 13 {\displaystyle 4\times 5-7=20-7=13} ,等於等號右邊。 習題 解下列一元一次方程式: ( 1 ) 3 x + 5 = 23 {\displaystyle (1)3x+5=23} ( 2 ) 6 − 7 y = 20 {\displaystyle (2)6-7y=20} 驗算:等號左邊 = 7 × 15 − 5 = 105 − 5 = 100 {\displaystyle =7\times 15-5=105-5=100} ,等號右邊 = 6 × 15 + 10 = 90 + 10 = 100 {\displaystyle =6\times 15+10=90+10=100} ,兩邊相同。 接下來的例題,我們都採用「移項法則」的方式,其實這是基於「等量公理」的原則,兩者作法大同小異。 如果你很熟練或是習慣的時候,例題 4 {\displaystyle 4} 你可以這麼做: 7 x − 4 = 5 x + 6 {\displaystyle 7x-4=5x+6} ⇒ 7 x − 5 x = 6 + 4 {\displaystyle \Rightarrow 7x-5x=6+4} ⇒ 2 x = 10 {\displaystyle \Rightarrow 2x=10} ⇒ x = 5 {\displaystyle \Rightarrow x=5} 驗算:等號左邊 = 7 × 5 − 4 = 35 − 4 = 31 {\displaystyle =7\times 5-4=35-4=31} ,等號右邊 = 5 × 5 + 6 = 25 + 6 = 31 {\displaystyle =5\times 5+6=25+6=31} ,兩邊相同。 這個題目如果你同除以一個 x {\displaystyle x} 就會得到 7 = 5 {\displaystyle 7=5} ,所以原題目無解?! 那你就錯了,因為你不能同時除以 x {\displaystyle x} 這個你完全無法確定它是不是 0 {\displaystyle 0} 的式子!而其實這題的解真的就是 x = 0 {\displaystyle x=0} … 驗算:等號左邊 = 7 × 0 = 0 {\displaystyle =7\times 0=0} ,等號右邊 = 5 × 0 = 0 {\displaystyle =5\times 0=0} ,兩邊相同。 習題 解下列一元一次方程式: ( 1 ) 2 x + 5 = 7 + 3 x {\displaystyle (1)2x+5=7+3x} ( 2 ) 10 − 4 y = 15 + y {\displaystyle (2)10-4y=15+y} ( 3 ) 6 z − 7 = 3 z − 7 {\displaystyle (3)6z-7=3z-7} 例題 6 {\displaystyle 6} 你也可以先去括號再做: 3 ( x − 4 ) = 15 {\displaystyle 3(x-4)=15} ⇒ 3 x − 12 = 15 {\displaystyle \Rightarrow 3x{\color {red}-12}=15} (去括號) ⇒ 3 x = 15 + 12 {\displaystyle \Rightarrow 3x=15{\color {red}+12}} (移項法則) ⇒ 3 x = 27 {\displaystyle \Rightarrow {\color {blue}3}x=27} (整理等號右邊) ⇒ x = 27 ÷ 3 {\displaystyle \Rightarrow x=27{\color {blue}\div 3}} (移項法則) ⇒ x = 9 {\displaystyle \Rightarrow x=9} (整理等號右邊) 驗算:等號左邊 = 3 × ( 9 − 4 ) = 3 × 5 = 15 {\displaystyle =3\times (9-4)=3\times 5=15} ,等於等號右邊。 習題 解一元一次方程式 − 98 ( x + 109 ) = − 98 {\displaystyle -98(x+109)=-98} 。 當然,例題 7 {\displaystyle 7} 你也可以先去括號再做: 2 ( 2 x + 9 ) = 14 {\displaystyle 2(2x+9)=14} ⇒ 4 x + 18 = 14 {\displaystyle \Rightarrow 4x{\color {red}+18}=14} (去括號) ⇒ 4 x = 14 − 18 {\displaystyle \Rightarrow 4x=14{\color {red}-18}} (移項法則) ⇒ 4 x = − 4 {\displaystyle \Rightarrow {\color {blue}4}x=-4} (整理等號右邊) ⇒ x = − 4 ÷ 4 {\displaystyle \Rightarrow x=-4{\color {blue}\div 4}} (移項法則) ⇒ x = − 1 {\displaystyle \Rightarrow x=-1} (整理等號右邊) 而在這題似乎這樣的方法更加簡便。其實在解方程式的時候,適當的選擇比較好解的方式也是相當重要的。 驗算:等號左邊 = 2 × [ 2 × ( − 1 ) + 9 ] = 2 × [ ( − 2 ) + 9 ] = 2 × 7 = 14 {\displaystyle =2\times [2\times (-1)+9]=2\times [(-2)+9]=2\times 7=14} ,等於等號右邊。 習題 解一元一次方程式 3 ( 4 x − 1 ) = 45 {\displaystyle 3(4x-1)=45} 。 驗算:等號左邊 = ( − 2 + 7 ) − [ 4 × ( − 2 ) − 2 ] = 5 − ( − 10 ) = 15 {\displaystyle =(-2+7)-[4\times (-2)-2]=5-(-10)=15} ,等於等號右邊。 習題 解一元一次方程式 ( 4 x − 5 ) + ( 2 x + 7 ) = 38 {\displaystyle (4x-5)+(2x+7)=38} 。 驗算:等號左邊 = 3 × ( 2 × 11 3 + 7 ) − 4 × ( 3 × 11 3 − 2 ) = 3 × ( 22 3 + 7 ) − 4 × ( 11 − 2 ) = 3 × ( 22 3 + 21 3 ) − 4 × 9 = 3 × 43 3 − 36 = 43 − 36 = 7 {\displaystyle =3\times (2\times {\frac {11}{3}}+7)-4\times (3\times {\frac {11}{3}}-2)=3\times ({\frac {22}{3}}+7)-4\times (11-2)=3\times ({\frac {22}{3}}+{\frac {21}{3}})-4\times 9=3\times {\frac {43}{3}}-36=43-36=7} ,等於等號右邊。 習題 解一元一次方程式 2 ( 3 x − 1 ) − 3 ( x + 5 ) = 19 {\displaystyle 2(3x-1)-3(x+5)=19} 。 解多重括號的方程式可以先去小括號,也可以先去中括號或是大括號。以下是幾個例題: 驗算:等號左邊 = 3 × 6 − [ ( 2 × 6 + 3 ) − 3 × ( 5 × 6 + 2 ) ] = 18 − [ ( 12 + 3 ) − 3 × ( 30 + 2 ) ] = 18 − [ 15 − 3 × 32 ] = 18 − [ 15 − 96 ] = 18 − ( − 81 ) = 18 + 81 = 99 {\displaystyle =3\times 6-[(2\times 6+3)-3\times (5\times 6+2)]=18-[(12+3)-3\times (30+2)]=18-[15-3\times 32]=18-[15-96]=18-(-81)=18+81=99} ,等於等號右邊。 習題 解一元一次方程式 2 [ 3 x − 2 ( 5 x + 4 ) ] − 5 = − 21 x {\displaystyle 2[3x-2(5x+4)]-5=-21x} 。 驗算:等號左邊 = 3 × { 2 × [ 4 × ( 5 − 1 ) + 3 ] − 2 } + 1 = 3 × { 2 × [ 4 × 4 + 3 ] − 2 } + 1 = 3 × { 2 × [ 16 + 3 ] − 2 } + 1 = 3 × { 2 × 19 − 2 } + 1 = 3 × { 38 − 2 } + 1 = 3 × 36 + 1 = 108 + 1 = 109 {\displaystyle =3\times \{2\times [4\times (5-1)+3]-2\}+1=3\times \{2\times [4\times 4+3]-2\}+1=3\times \{2\times [16+3]-2\}+1=3\times \{2\times 19-2\}+1=3\times \{38-2\}+1=3\times 36+1=108+1=109} ,等於等號右邊。 習題 解一元一次方程式 5 { 4 [ 3 ( 2 x − 1 ) − 2 ] − 3 } − 4 = 1 {\displaystyle 5\{4[3(2x-1)-2]-3\}-4=1} 。 解分數型的方程式可以先將方程式同乘以一個整數,讓方程式變成全整數的形式再解會比較方便。 對於這種比較複雜的方程式,驗算時可能會出錯,通常在解題過程檢查一下有沒有出錯,若過程沒有出錯,通常解都不會有問題的。 習題 解一元一次方程式 2 3 x + 1 = 4 5 x − 1 {\displaystyle {\frac {2}{3}}x+1={\frac {4}{5}}x-1} 。 但是在這邊再次強調,如果你還是會擔心自己解錯,最好還是把答案代回去原本的式子。 習題 解一元一次方程式 2 x + 1 3 − x + 1 5 = 2 {\displaystyle {\frac {2x+1}{3}}-{\frac {x+1}{5}}=2} 。 而小數型的方程式可以先將小數化為分數再利用分數型的解題模式進行。 可能有些反應很快的同學有發現到:根本不用換成分數再乘以 10 {\displaystyle 10} ,只要一開始乘以 10 {\displaystyle 10} 就好了。 如果有一位小數與二位小數混合時,你就應該同乘以 100 {\displaystyle 100} ,為了是讓二次小數變成整數。下面這個習題就讓同學們嘗試看看這樣的做法。 習題 解一元一次方程式 0.3 ( 2 − 3 x ) + 0.25 ( 2 x + 1 ) = 1.25 {\displaystyle 0.3(2-3x)+0.25(2x+1)=1.25} 。 有些題目可能會使用分數型,但是分子分母出現小數……這時就先針對每個分數進行擴分,讓它變成正常分數型。 注意是擴分,也就是分子分母同乘以一個數,這時分數的值與原本的相同,故在例題 15 {\displaystyle 15} 之中 1 2 {\displaystyle {\frac {1}{2}}} 沒有同乘 100 {\displaystyle 100} 變成 50 {\displaystyle 50} 。 在這裡,我們用天平引入,但請注意結論是無論正數、負數都是成立的。 x = 6 {\displaystyle x=6} y = − 2 {\displaystyle y=-2} x = − 2 {\displaystyle x=-2} y = − 1 {\displaystyle y=-1} z = 0 {\displaystyle z=0} x = − 108 {\displaystyle x=-108} x = 4 {\displaystyle x=4} x = 6 {\displaystyle x=6} x = 12 {\displaystyle x=12} x = 3 {\displaystyle x=3} x = 1 {\displaystyle x=1} x = 15 {\displaystyle x=15} x = 4 {\displaystyle x=4} x = − 1 {\displaystyle x=-1}
藥理學/抗病毒藥物/藥物臨床應用 控制症狀 避免併發症 避免影響日常學習或工作 避免傳染 現有兩種疫苗,用於預防季節性流感:失活流感疫苗(IIV)和 鼻噴霧的流感减毒活疫苗(LAIV) IIV 有三價(IIV3)與四價(IIV4)兩種;LAIV 有四價 兩種疫苗皆含有兩個流感 A 病毒亞型(H3N2 和 H1N1)與流感 B 病毒 大部分流感疫苗生產過程中皆會用到雞蛋,目前只有 Flublock(重組三價疫苗)和 Flucelvax(細胞培養四價疫苗)可以用於對雞蛋過敏者 Flublok 內含物無雞蛋蛋白;Flucelvax 每劑含有 5 × 10 8 {\displaystyle 5\times 10^{8}} μg/0.5 mL ovalbumin Afluria 不能使用於對 Neomycin 或對 Polymyxin 過敏者,不建議用於 6 個月至 8 歲小孩(因為施打後高熱) ccIIV3:call culture-based trivalent influenza vaccine; RIV3:recombinant trivalent influenza vaccine; aIIV3:adjuvanted inactivated influenza vaccine a: 對於六個月至 9 歲小孩,且第一次施打流感疫苗(或 received one dose in first year of vaccination during the previous influenza season)兩次施打間隔至少 1 個月 b: 0.1 mL 劑量中含有三個病毒抗原,每個抗原含量 9 μg,共 27 μg c: ACIP 在 2016~2017 年間不建議使用 d: 對於六個月至 9 歲小孩,且第一次施打流感疫苗者,兩次施打間隔四週 見藥物治療表格 懷孕婦女和免疫缺陷者,應每年接受 IIV 疫苗 待在家裡充分睡眠休息 飲用足夠的水 可以喝點熱茶或熱湯,幫助緩解咳嗽和喉嚨痛 Oseltamivir, Zanzmivir, Peramivir Peramivir 是目前唯一一個可以做成靜脈注射劑型的抗流感病毒藥物 目前的抗病毒藥可在發病後 48 小時內開始服用,療效最好 Amantadine 和 Rimantadine 因為抗藥性,已不再使用 a: 如果已接種流感疫苗,14 天後可以停止服用預防劑量 如服用當下,仍處在接觸環境,需繼續服藥直到最後一次接觸後十天 對於疫苗有禁忌或預期無效者、有高流感發併發症風險者,應在流感病毒盛行季節時服用藥物預防 b: 早產兒使用 Oseltamivir 劑量 < 38 週:1 mg/kg/dose Q12H 38~40 週:1.5 mg/kg/dose Q12H > 40 週:3 mg/kg/dose Q12H c:IDSA/PIDS 建議 3~8 個月:3 mg/kg/dose QD 9~23 個月:3.5 mg/kg/dose QD d: unlabeled dosing e: 只有核准適用於 ≥ 18 歲者,如果 CrCl < 50 ml/min,劑量要調整 Amantadone、Rimantadine 阻斷 M2 離子通道,抑制病毒 uncoating 對 influenza A 專一性高 用於季節性流感 A H1N1 對 H3N2 或流感 B 病毒也有活性 Oseltamivir, Zanamivir, Peramivir 抑制 neuraminidase,使病毒沒辦法從被感染細胞中釋出 在剛開始發病後 48 小時內服用 NA 抑制劑,可以減短一天療程 Oseltamivir:給年齡 14 歲以上者使用,療程通常五天 Zanamivir:給年齡 7 歲以上使用,療程通常五天 Peramivir:給年齡 18 歲以上使用 Peramivir 療效與 Oseltamivir 相當,副作用小 因此 Peramivir 可以作為不能使用 Oseltamivir 者(吸收不良、腸胃道出血等)的替代藥 資料不足 Oseltamivir 可以用於懷孕婦女 Zanamivir 也可,但須考慮呼吸併發症,尤其是有呼吸疾病的婦女 抗流感藥物皆會分泌到乳汁中,需避免用於哺乳婦女
工程材料/可锻铸铁 可锻铸铁是由白口铸铁通过退火处理得到的一种高强铸铁,是在钢的基体上分布着团絮状石墨的一种铸铁。 由于石墨形态呈团絮状分布,减弱了对基体的割裂作用,因此可锻铸铁的力学性能比灰口铸铁高,具有更高的塑性和韧性。 “可锻”并不是说可锻铸铁真的可以使用锻造加工,而仅仅是说明其具有较好的塑性,实际仍然是不可锻造的。 铁素体可锻铸铁以“KT” 表示,珠光体可锻铸铁以“KTZ”表示。其后的两组数字表示最低抗拉强度和延伸率。如:KT350-10、KTZ600-3 可锻铸铁常用来制造形状复杂、承受冲击和振动载荷的零件,如汽车拖拉机的后桥外壳、管接头、低压阀门等。
高中物理/力與運動/练习题1 甲乙两运动员在训练交接棒的过程中发现:甲经短距离加速后能保持 9 m / s {\displaystyle 9\mathrm {m/s} } 的速度跑完全程:乙从起跑后到接棒前的运动是匀加速的,为了确定乙起跑的时机,需在接力区前适当的位置设置标记,在某次练习中,甲在接力区前 S 0 = 13.5 m {\displaystyle S_{0}=13.5\mathrm {m} } 处作了标记,并以 V = 9 m / s {\displaystyle V=9\mathrm {m/s} } 的速度跑到此标记时向乙发出起跑口令,乙在接力区的前端听到口令时起跑,并恰好在速度达到与甲相同时被甲追上,完成交接棒,已知接力区的长度为 L = 20 m {\displaystyle L=20\mathrm {m} } 。求: 此次练习中乙在接棒前的加速度 a {\displaystyle a} 。 在完成交接棒时乙离接力区末端的距离。
Racket/常用函数 (map proc lst ...)→list? proc:函数 lst:列表 应用proc函数到lst中的所有元素,proc需要的函数必须与lst的数列对应。所有的lst必须有相同数目的元素。输出的结果是一个列表,包含所有的proc对象。 (filter pred lst ...)→list? pred:函数 lst:列表 将pred函数应用到所有的lst列表元素上,然后将返回值(pred的返回值)为真值的lst元素形成新列表返回(filter的返回) (match val-expr clause ...) clause = [pat body ...+]|[pat (=> id) body ...+]|[pat #:when cond-expr body ...+] match会找到第一个可以和val-expr匹配的pat,然后运行相应的body,引入相应的pat的绑定。
俄语/动词 当重音在词尾时,词尾开头的 -е 要变成 -ё 。 从时间上分类, 俄语动词有三种时态:现在时、过去时和将来时。 动词的过去时只有阴、阳、中性和复数四种变化。以 -ть 结尾的动词, 构成过去时的规则是先去掉 -ть, 阳性名词加 -л, 阴性名词加 -ла, 中性名词加 -ло, 复数加 -ли。 比如: говорить (说) я/ты/он говорил я/ты/она говорила оно говорило мы/вы/они говорили 未完成体表示现在、过去、将来正在进行或经常发生的行为,如 писать, смотреть 完成体表示已经完成或将要完成的行为,如 написать,посмотреть - что ты делал летом? - отдыхал и строил дом. - построил? - Да,построил.
老龄化与全球健康/糖尿病 老年慢性非传染性疾病- 心血管疾病 - 糖尿病 - 高血压 - 恶性肿瘤 糖尿病是由遗传和环境因素联合作用所致的一种以高血糖为特征的全身慢性代谢性疾病,由于体内胰岛素分泌绝对或相对不足,导致糖类、脂肪、蛋白质、水及电解质代谢紊乱。糖尿病时长期存在的高血糖,可导致各种组织,特别是眼、肾、心脏、血管、神经的慢性损害和功能障碍。糖尿病有2种形式,1型糖尿病的特征是缺乏胰岛素分泌能力,2型糖尿病则是由于自身无法有效利用胰岛素造成。2型糖尿病约占全球糖尿病总数的90%。老年期糖尿病是指60岁以后发生的糖尿病或者是60岁以前发病而延续到60岁以后的老年病人。糖尿病是一种常见老年病,绝大多数临床糖尿病发生在中老年。 糖尿病的分布在国家和地区间存在很大差异,发达国家的发病率高于发展中国家,发展中国家城市的发病率高于农村。80%的糖尿病死亡情况发生在低收入和中等收入国家。全球糖尿病患病率最高的是瑙鲁、阿联酋、沙特阿拉伯等富裕国家,最近,澳大利亚人因为饮食习惯和缺乏运动,也已成为世界上糖尿病患病率最高的国家之一。随着经济的发展,人均寿命的延长和肥胖者增多,中国成为世界上糖尿病人最多的国家,也是糖尿病患病率增长速度最快的国家。 维基百科中的相关条目: 糖尿病
工程材料/蠕墨铸铁 蠕墨铸铁是钢的基体上分布着蠕虫状石墨的一种铸铁。 蠕虫状石墨为互不连接的蠕虫状石墨,为互不连接的短片状,其石墨片的长厚比较小,端部较钝,形态介于片状石墨和球状石墨之间。 蠕墨铸铁是一种新型高强铸铁材料。它的强度接近于球墨铸铁,并且有一定的韧性、较高的耐磨性;同时又有和灰口铸铁一样的良好的铸造性能 和导热性。 蠕墨铸铁以“RuT”表示,其后的数字表示最低抗拉强度。如:RuT300 、RuT420 蠕墨铸铁已成功地用于高层建筑中高压热交换器、内燃机汽缸和缸盖、汽缸套、钢锭模、液压阀等铸件。
MySQL/Language/miscellaneous 单引号:SQL 使用单引号来环绕文本值。如果是数值,请不要使用引号。 双引号:单引号和双引号可互换,但必须分别成对使用。 反引号:是 mysql 的转义符。用于区分MYSQL的保留字与普通名字。MYSQL保留字作为字段的,必须加上反引号来区分。不是保留字的字段名、表名等等,加反引号只是作一个保险,也是一个良好的sql建表习惯。
公民教育/法治與公義 自然權利 (natural rights) 和法定權利 (legal rights),是兩種在理論上不同類型的權利。自然權利源於拉丁文「jus natural」,中文習慣譯為「天賦人權」,或稱為不可剝奪的權利,是指不受制於特定文化或政府的法律和習俗。自然權利與生俱來、不可剝奪,而法定權利則是來自法律。自然权利和自然法息息相關。 「憲法」一詞,可以指一具體概念,即部分國(nation and/or state)、國家 (country)、地區 (region)、地區 (territory)、地方 (place) 的一部或多部成文法律,也可以指一相對抽象的概念,即一系列確立法律原則和政府組成的規則,即憲制。前者的例子為《中華民國憲法》,而後者的例子為英國憲法。 更高法律規則(英語:rule according to a higher law),指的是法律除非满足诸如公平、道德和正义之类的普遍性原则,否则不得被政府执行。此概念,对普通法和大陆法司法管辖区都具有同等的法律价值,是联结海洋法系的法治和大陆法系的法治国的的一座桥梁。 適當性原則:措施必須有助於達成其目的 必要性原則:措施必要,而無可替代,或所有替代措施皆有更大傷害 衡量性原則:若該等措施限制或損害人權,則受損害者與受保護者必須平衡。 特別的,若所限制之權利包含基本人權,則其直接或間接目的必須包含保護特定基本人權。
工程材料/白口铸铁 三个石墨化阶段过程全被抑制住,完全按Fe-Fe3C相图结晶的铸铁,碳固溶于铁素体和存在于渗碳体中,没有游离的碳。由于其断口呈银白色,故称为白口铸铁。 白口铸铁的性能硬而脆,不宜切削,很少用于制作机械零件或产品部件,一般主要用作炼钢原料或通过退火制备可锻铸铁。
老龄化与全球健康/心血管疾病 老年慢性非传染性疾病- 心血管疾病 - 糖尿病 - 高血压 - 恶性肿瘤 心血管疾病(cardiovascular diseases , CVD)是心脏和血管疾患引起的,包括冠状动脉性心脏病(coronary heart disease, CHD, 简称冠心病)、脑卒中(中风)、周围动脉血管疾病、风湿性心脏病、先天性心脏病 和心力衰竭等,是全世界的头号死因。心血管病的主要病因是吸烟、缺乏体力活动(运动锻炼)和不健 康饮食。随着年龄的增长,人的心脏和血管的结构及功能都会发生退化,加上血清胆固醇水平的变化,会引起人的心脏功能的退化。老年人是心血管疾病最主要的受累人群,年龄的增长是心血管疾病最主要的危险因素。据估计,约82%的冠心病死亡病例在65岁以上。老年人最常见的心血管疾病是冠心病,其次是脑卒中高血压、心律失常、心力衰竭、老年心脏瓣膜病、老年心肌病等。 全球范围内,心血管疾病所致的DALYs损失中,缺血性心脏病占5.2%,是过去10年全世界的主要死因之一,也是因早死丧失寿命年(YLL)的主要原因,脑卒中是全球第二致死和成人致残的主要原因。2008年全球心血管病死亡人数1730万人,占全球死亡总数的30%,其中,估计730万人死于冠心病,620万人死于脑卒中。缺血性心脏病的全球年龄标化死亡率下降,但由于人口增长和老龄化现象,心血管病所致死亡人口的绝对数值有所增加。2010年,全球新发脑卒中病人1690万人,死于脑卒中相关疾病病人共590万人,共有脑卒中幸存者3300万,比1990年分别增加了68%、26%、84%,其中500万人是老年人。心血管疾病负担最高的是东欧和中亚。在南亚、北非和中东地区的大量人群中,心血管疾病所致死亡人口增加,在高收入国家,包括英国、新西兰、爱尔兰、以色列和挪威,心血管疾病所致的伤残调生命年(DALYs)损失正在下降。33个高收入国家中,挪威、爱尔兰、英国、以色列、卢森堡和新西兰的CVD所致DALYs损失,1992年至2010年间降低了40%。高收入国家中,只有文莱和日本CVD所致DALYs损失,在过去的20年中分别增加了2%和6%。 心血管疾病的一级预防策略包括面向全人群,控制和降低人群整体心血管病发病危险因素的人群策略和针对高危险者的筛查和干预的高危策略,主要是消除或减少可进行干预的危险因素,以达到降低发病的可能性。血压、血脂、血糖、超重、肥胖和吸烟是干预的重点。对于有高血压前期、代谢综合征的人虽然还没有患高血压,要采取非药物治疗方法改善生活方式来解除危险。对于超重和肥胖的人应采取及时有效措施控制体重。 控制血压 控制血脂水平 合理膳食 保持适量体力活动 戒烟和限制酒精摄入 控制超重与肥胖
Asterisk权威指南/第三章 安装Asterisk 在这一章我们将详细介绍如何从源代码安装Asterisk。很多人回避这种方法,说它太难了,又耗时间。我们在这里想证明的是从源代码安装Asterisk其实没那么难。更重要的是,我们想为你提供一个最好的Asterisk安装,以便学习。 在本书中,我们将帮助你从空白开始构建起一个功能健全的Asterisk。在本章你将为你的Asterisk系统搭建一个基础平台。从源代码安装有很多种方法,这里将向你介绍的方法我们已经用了很多年了。 作为这个过程的一部分,我们还会介绍如何在Linux操作系统上安装依赖软件包,这些依赖软件包会在本书的其他部分涉及到(比如数据库集成)。我们提供了在CentOS(基于Redhat)和Ubuntu(基于Debian)上的具体安装指令,我们相信这两个系统是覆盖面最广的。我们将保持这些指令尽可能地也适用于其他Linux发行版。 尽管我们选择了CentOS和Ubuntu,但Asterisk本身是不特定于任何Linux发行版的。Asterisk甚至可以安装到Solaris,BSD,或者OS X上,如果你喜欢的话。但我们在这里不会讨论这些,毕竟Asterisk还是主要开发用于Linux平台的。 注:Asterisk软件包。也可以通过软件包管理程序(yum或apt-get)安装Asterisk,你有兴趣的话可以试一下。但是预构建的软件包可能不是最新的,所以要用最新的版本我们还是建议从源代码安装。 你在本章看到的一些命令可能会分成多行,并且标明了它们所适用的发行版。没有标明的命令可以同时适用于两个发行版上。 很多项目是以Asterisk作为它们的基础平台的。其中一些,像Trixbox,很流行,以至于被人们当成了Asterisk产品本身。这些项目一般是在Asterisk的基础上添加一个Web管理界面、一个复杂的数据库和一些受限制的配置修改规则。 我们选择不介绍这些项目,是出于以下原因: 这本书应该尽可能地专注于Asterisk本身。 已经有一些介绍那些项目的书了。 我们相信,如果你按照我们教你的方式学习Asterisk,这些知识在你选择使用那些项目的时候一样很有用。 对我们来说,Asterisk的强大在于它不会试图去替你解决问题。那些项目就很好地说明了我们可以用Asterisk做什么,它们真的做得很棒。但是,如果你想建立一个自己的Asterisk系统(Asterisk的真正意义所在),那些项目会对你构成限制,因为它们的目的是简化你建造一个系统的过程,而不是帮你发觉Asterisk的潜能。 一些有名的项目包括(我们建议你去看一下): AsteriskNOW http://www.asterisk.org/asterisknow Trixbox http://www.trixbox.org Elastix http://www.elastix.org PBX in a Flash http://www.pbxinaflash.net 如果你想尽快把Asterisk跑起来,可以按顺序执行下面的shell命令。我们建议你至少把本章读一遍,以便更好地理解整个过程。 这些命令假设你已经按照“操作系统安装”一节的内容把操作系统安装好了。 1. 执行系统更新并重启 CentOS: yum update -y && reboot CentOS 64-bit: yum remove *.i386 && yum update -y && reboot Ubuntu: sudo apt-get update && sudo apt-get upgrade && sudo reboot 2. 同步时间,并且安装网络时间协议(NTP)服务器: CentOS: yum install -y ntp && ntpdate pool.ntp.org && chkconfig ntpd \ on && service ntpd start CentOS 64-bit: yum install -y ntp && ntpdate pool.ntp.org && chkconfig ntpd \ on && service ntpd start Ubuntu: sudo apt-get install ntp Ubuntu还需要一些额外的配置,见“启用NTP精确系统时间”。 3. (只对CentOS)添加一个新的系统用户 CentOS (32 and 64 bit): adduser asteriskpbx && passwd asteriskpbx && yum install \ sudo && visudo 详见“添加系统用户”。 对Ubuntu来说,我们假设在安装过程中创建的用户是asteriskpbx。 4. 安装依赖软件包 CentOS: sudo yum install gcc gcc-c++ make wget subversion \ libxml2-devel ncurses-devel openssl-devel \ vim-enhanced CentOS 64-bit: sudo yum install gcc.x86_64 gcc-c++.x86_64 \ make.x86_64 wget.x86_64 subversion.x86_64 \ libxml2-devel.x86_64 ncurses-devel.x86_64 \ openssl-devel.x86_64 vim-enhanced.x86_64 Ubuntu: sudo apt-get install build-essential subversion \ libncurses5-dev libssl-dev libxml2-dev vim-nox 5. 创建你的目录结构 $ mkdir -p ~/src/asterisk-complete/asterisk $ cd ~/src/asterisk-complete/asterisk 6. 从Subversion检出最新代码 【备注: 该代码及步骤目前已经无法使用. 正确的书目请参考官方页面http://www.asteriskdocs.org/en/3rd_Edition/asterisk-book-html-chunk/Installing_id292446.html】 $ svn co http://svn.asterisk.org/svn/asterisk/branches/1.8 或者,检出特定标签 $ svn co http://svn.asterisk.org/svn/asterisk/tags/1.8.1 7. 构建并安装软件 $ cd ~/src/asterisk-complete/asterisk/1.8/ $ ./configure $ make $ sudo make install $ sudo make config 8. 从menuselect安装额外的语音提示 $ cd ~/src/asterisk-complete/asterisk/1.8/ $ make menuselect $ sudo make install 9. 修改Asterisk安装目录的权限 $ sudo chown -R asteriskpbx:asteriskpbx /usr/lib/asterisk/ $ sudo chown -R asteriskpbx:asteriskpbx /var/lib/asterisk/ $ sudo chown -R asteriskpbx:asteriskpbx /var/spool/asterisk/ $ sudo chown -R asteriskpbx:asteriskpbx /var/log/asterisk/ $ sudo chown -R asteriskpbx:asteriskpbx /var/run/asterisk/ $ sudo chown asteriskpbx:asteriskpbx /usr/sbin/asterisk 10. (只对CentOS)禁用SELinux $ sudo vim /etc/selinux/config 把SELINUX的值从enforcing修改成disabled,然后重启。 11. 创建/etc/asterisk目录,并且把indications.conf示例文件拷进去 $ sudo mkdir -p /etc/asterisk $ sudo chown asteriskpbx:asteriskpbx /etc/asterisk $ cd /etc/asterisk/ $ cp ~/src/asterisk-complete/asterisk/1.8/configs/indications.conf.sample \ ./indications.conf 12. 把asterisk.conf拷到/etc/asterisk,修改runuser和rungroup的值为asteriskpbx $ cp ~/src/asterisk-complete/asterisk/1.8/configs/asterisk.conf.sample \ /etc/asterisk/asterisk.conf $ vim /etc/asterisk/asterisk.conf 详细信息请看“indications.conf和asterisk.conf”一节。 13. 创建modules.conf。设定为自动装载模块,并且禁用额外模块 $ cat >> /etc/asterisk/modules.conf ; The modules.conf file, used to define which modules Asterisk should load (or ; not load). ; [modules] autoload=yes ; Resource modules currently not needed noload => res_speech.so noload => res_phoneprov.so noload => res_ael_share.so noload => res_clialiases.so noload => res_adsi.so ; PBX modules currently not needed noload => pbx_ael.so noload => pbx_dundi.so ; Channel modules currently not needed noload => chan_oss.so noload => chan_mgcp.so noload => chan_skinny.so noload => chan_phone.so noload => chan_agent.so noload => chan_unistim.so noload => chan_alsa.so ; Application modules currently not needed noload => app_nbscat.so noload => app_amd.so noload => app_minivm.so noload => app_zapateller.so noload => app_ices.so noload => app_sendtext.so noload => app_speech_utils.so noload => app_mp3.so noload => app_flash.so noload => app_getcpeid.so noload => app_setcallerid.so noload => app_adsiprog.so noload => app_forkcdr.so noload => app_sms.so noload => app_morsecode.so noload => app_followme.so noload => app_url.so noload => app_alarmreceiver.so noload => app_disa.so noload => app_dahdiras.so noload => app_senddtmf.so noload => app_sayunixtime.so noload => app_test.so noload => app_externalivr.so noload => app_image.so noload => app_dictate.so noload => app_festival.so Ctrl+D 14. 配置musiconhold.conf $ cat >> musiconhold.conf ; musiconhold.conf [default] mode=files directory=moh Ctrl+D 15. 现在可以开始配置信道和拨号计划了。 因为Asterisk需要获取CPU的优先权,所以有必要将Asterisk安装在一个没有任何图形界面的服务器上,比如X Window系统(Gnome,KDE等等)。CentOS和Ubuntu都有用作服务器的无图形用户界面的发行版。我们将在下文中指导这两个系统上的操作系统安装。 CentOS全称“社区企业操作系统(Community Enterprise Operating System),”它是基于Red Hat企业版Linux(RHEL)开发的。更多关于CentOS是什么以及它的历史的信息,可以在http://www.centos.org获取。 你需要从CentOS网站http://mirror.centos.org/centos/5/isos/下载一个ISO。对应32位系统和64位系统分别选择i386或x86_64。然后你会看到一个镜像列表,选择其中一个镜像,你就会看到可供下载的文件列表。可能你想选择列表中的第一个ISO文件,那你就需要下载它,我们将用yum命令下载其他额外的软件。 一旦你下载好了ISO文件,把它刻录到CD或DVD上,然后开始安装。如果你是要把系统安装在虚拟机上(我们不推荐这么做,但用这种方式能很好地测试Asterisk),你应该直接挂载这个ISO文件并安装。 系统一从光盘启动,就选择linux一行并按下回车。 此时会出现字符安装界面。你会被询问是否检测该光盘,教程中假设你已经做过检查了,因此可以跳过这一步。 CentOS欢迎你进入安装,按回车继续。 选择语言和键盘。如果你在北美,你可以选择默认。 如果你预先格式化了你的硬盘驱动器, 你将被询问是否初始化驱动,这将擦去所有数据。选择Yes。 安装程序会问你是否想要删除现在的分区方案并创建一个新的。选择Remove all partitions on selected drivesand create default layout。如果有更好的选项,选择它。在驱动窗口,检验是否选择了正确的磁盘驱动。(按Tab键可以循环依次选择屏幕上的各选项。)一旦选择好了驱动窗口,你就可以滚动向上或向下(假设你有多个驱动)选择你想安装的驱动。按空格键切换选择。核对选择的驱动是否正确,按Tab键直至OK按钮高亮,然后按回车。
Racket/数据类型 (cons a b)接受两个参数,当第二个参数不是列表,不为空且不是由cons产生的元素时,结果被打印为(a . b),两个元素插入括号中,且被点隔开。 cons返回的数据并不一定是一个list,而是一个对(pair),可以使用pair?判断。 一个对的前后两个元素分别被称为car和cdr >(car (cons a b)) a >(cdr (cons a b)) '(b) >(cons (list a b) c) '((a b) . c) >(cons a (list b c)) '(a b c) 一般一个对的表示法是用一个. 点 隔开,除非点后面跟了一个(开的括号,这种情况下删去点和这对匹配的括号。 就是'(a . (b . c))变为'(a b . c),'(a . (b . (c . ())))变为'(a b c) 一个列表在打印的时候一般都会在前面加一个引用标记,如果列表元素本身是列表的话,列表内的列表不会重复使用引用标记。 >(list (list a b c) (list c d e) (list f g h)) '((a b c) (c d e) (f g h)) quote可以简单的将列表或对表示为S表达式的形式 >(quote (a (b c d) "asas" (d q e))) '(a (b c d) "asas" (d q e)) >(quote (a . b)) '(a . b) >(quote (a . (b . c))) '(a b . c) 如果用引用标记包裹一个标识符的话,会得到一个加了'的看起来很像标识符的字符 >map #<procedure:map> >(quote map) 'map >(symbol? (quote map)) #t >(procedure? map) #t >(string->symbol "map") 'map >(symbol->string (quote map)) "map" 引用符号对数字和字符串没有影响 '引用适用于输入,也适用于输出 >(car ''ada) 'ada >(car '(quote ada)) 'quote >(quote (quote aba)) ''aba >'(quote aba) ''aba
社區管理 社區管理(Community Management) 社區應設置管委會,並設置以下職務(每年招開住戶大會改選): 主任委員,簡稱主委 財務委員(需每月整理出收支明細張貼於社區的公布欄。) 監察委員 安全委員(平時作為住戶與保全公司聯繫的管道,火災警報時協助查看火災警報器的受信總機。) 保全警衛 機電維護(例如電梯,地下停車場的鐵捲門,備用電源的發電機,與其他公設。) 清潔(只負責公設區的清潔,住戶內的清潔費用另計,由住戶自行付費給清潔公司。) 垃圾清運(按月計費。資源回收的所得依比例回饋給社區。) 一般家庭垃圾 加強宣導垃圾分類與資源回收(廚餘,寶特瓶,紙類,玻璃瓶,金屬罐)。 廢棄家具 由住戶自行連絡公營之清潔隊,約定清運時間再拿出來。 廢棄大型家電(電視、冰箱、洗衣機) 加強宣導,由住戶在購買新家電時,由電器行或電器賣場代為回收廢棄的舊家電。 裝潢廢棄物 由施工單位自行清運,嚴禁往社區的垃圾場丟。 營業行為衍生的垃圾(工廠或開店) 與住戶及垃圾清運廠商協調,看是要住戶付費包月?還是秤重計費?還是住戶自行清運? 外來垃圾 加強宣導,並以監視設備錄影存證。再後續處理。 誤動作 查明原因後,將火災警報器的受信總機復歸。並用社區廣播告知住戶誤報原因。 可立即處置的小火災 使用社區內的消防設備自行滅火,並用社區廣播告知住戶原因。確認滅火後,將火災警報器的受信總機復歸。 無法立即處置的火災 設法隔離火場,立即通報消防隊救援,並用社區廣播告知住戶立即疏散逃生。 人為因素 加強宣導,避免深夜有住戶高唱卡拉OK,或是將電視音量開大的行為。或是避免在深夜使用洗衣機。 冷氣機滴水 加強宣導,如不改善可看情況告發(有些地區可由政府的環保單位開罰單)。 寵物 加強宣導。與提供飼主相關的知識,來減少寵物日夜狂叫的機會。 停車格被外來車輛占用 如有連絡電話號碼,通知車主移車。如無,輪胎鎖大鎖,車上張貼公告,請車主來連絡。(需於停車場入口處預先公告,避免爭議。) 停車格堆積雜物 加強宣導。要求限期清理。基於公共安全,停車格不可當成私人倉庫使用。 停車格被住戶租給外人使用 加強宣導。基於社區安全,請盡量避免讓外人自由進入社區。 預防措施 社區出入口改用磁卡鎖作進出時管制。開門的時候,同時記錄是誰開的門。 訪客進出一律換證登記。非付費的郵件或包裹由保全人員代收。掛號與付費的包裹或外送的食物,則請住戶自己出來拿。 社區之所有出入口與每一樓層的電梯間,加裝監視錄影設備。錄影內容須保留三個月以上。 住戶遭竊 依時間範圍,調閱監視器的錄影資料,移交警方偵辦。 消防 社區之消防設施應定期檢測維護與汰換過期品(例如乾粉滅火器)。 社區之出入口、騎樓、樓梯間與其他公設之空間,一律禁止堆放雜物。 在台灣可向各地政府的工務局報案,依照「公寓大廈管理條例」第16條第2項,住戶不得於私設通路、防火間隔、防火巷弄、開放空間、退縮空地、樓梯間、共同走廊、防空避難設施等處所堆置雜物、設置柵欄、門扇或營業使用,違者可依照第49條處新台幣4萬元以上、20萬元以下罰鍰,並得令其限期改善,屆期不改善或不履行者,得連續處罰。 公設用途變更 公設用途變更,應經過住戶大會表決同意。否則以台灣為例,可以向各地方政府的建管機關檢舉。如果是建商所為,可以控告建商違反購屋時的契約。 每月收支明細(含社區名下的存款餘額)。 逾期未繳交社區管理費之住戶名單(例如超過1個月)。 往來廠商之報價或異動原因。 住戶大會之相關內容(含決議事項)。 以下之預期事件,應提前公告。避免住戶發生不便。 停水(洗水塔) 停電 電梯維修 社區消毒(法定傳染病、病媒蚊、蟑螂) 住戶大會招開時間與討論議題 其他經管委會同意之公告內容。 私人糾紛 錄影存證,再到政府設立的調解委員會聲請調解服務。 维基百科中的相关条目: 公寓大廈管理委員會 維基文库中相關的原始文獻: 公寓大廈管理條例 公寓大廈管理條例施行細則 公寓大廈管理Q&A彙編
工程材料/球墨铸铁 球墨铸铁是在钢的基体上分布着球状石墨的一种铸铁。 球墨铸铁的性能 由于球墨铸铁的石墨呈球状,使其具有很高的强度,又有良好的塑性和韧性,其综合机械性能接近于钢。 球墨铸铁可以像钢一样进行各种热处理和合金化,以改变其金属基体组织,提高力学性能。 铸造性能好,成本低廉,生产方便,在工业中得到了广泛的应用。 球墨铸铁的牌号 球墨铸铁牌号用“QT” 标明,其后两组数值表示最低抗拉强度极限和延伸率。如:QT400-15、QT600-3、QT800-2。
Low heel recovery In sprinting, the starting action is critical. The heel keeps close to the ground level, in order to have another stride as fast as possible (i.e. recover). Some professional athletes like Usain Bolt, Asafa Powell and Christian Coleman can maintain their heels low during the start. Nonetheless, most of the professional sprinters cannot perform this action, and seem no women use this strategy. How to do low heel recovery? The second moving leg/ back leg on the back starting block has to push away from ground in quite an explosive power. Then, it is maintained in straight state (i.e. extend the whole leg). It is quite usual to discover that the leg heel will touch the ground. The main goal is to shorten the time for generating the stride afterward. Also, the stride length can be lengthened by performing this. This action requires one to generate an explosive power to extend the leg as much as possible, which directs the person to the 45°forward. Advantages As said, low heel recovery aims at generating the next stride as fast as possible. That is to increase the stride frequency. Meanwhile, the power generated and the full extension of the leg can lengthen the stride length more for that specific step. As a result, the acceleration is enhanced, which quickly translates from the static mode to maximum velocity later on. Disadvantages To perform a perfect low heel recovery, much practice is needed to familiarize. This action actually differs from the traditional starting action which the runner takes up the lower leg high. Therefore, the sprinter has to practise this new action more to erase the old muscle memory. If not, the sprinter will start even worse than the traditional way. Meanwhile, strong muscle power is needed to perform low heel recovery. The pushing-out action of the leg requires excellent fast-twitch muscles which contract quickly. If the sprinter has weaker muscle groups for pushing out, it wastes more time on this. The resulting stride length is not as long as expected.
Asterisk权威指南/第一章 一场电话革命 当我们开始着手写一本Asterisk书的时候(大概五年前),我们确信Asterisk将会从根本上改变通讯行业。今天,我们预言的这场革命几乎就要完成了。Asterisk现在是世界上最成功的PBX,并且是通讯行业的公认技术(尽管并不总是受欢迎)。 不幸的是,在过去五年中,通讯行业仍然没有找到正确的方向。我们通讯的方式已经变了。尽管20年前打电话是远距离通讯的首选方式,但目前的趋势是文本消息(email,IM,等等)。打电话看起来有点out了,特别对于成长起来的下一代来说。 Asterisk仍然是很棒的技术,对于想在任何技术中集成通讯功能的企业来说,Asterisk还是最佳选择。 使用Asterisk,没有人可以规定你系统的工作方式,或者限制你使用的技术。你想要什么,就可以拥有什么。Asterisk热情地拥抱标准,同时也享受创新的自由。你想怎么实现完全取决于你——Asterisk不会向你强加任何约束。 当然,这难以置信的灵活性也不是免费的:Asterisk并不是一个可以轻易配置的系统。这并不是因为它不合逻辑、混乱或晦涩;相反它相当合理,而且实用。人们第一次看到拨号计划时,眼睛往往为之一亮,并很快开始设想各种可能性。但是,当同一结果可以用无数种方式实现时,需要付出的努力也是可想而知的。(TODO) Voice over IP(VoIP)往往被认为只不过是一种打免费长途电话的方法。但它的真正意义(同时也是挑战所在)是,它认为语音只不过是数据通讯网络的另一个应用。 有时候人们似乎有点忘记了电话的目的是通讯。这是一个简单的目标,我们应该能够以更灵活、更具创造性的方式达成。Asterisk一类的技术降低了我们进入这个领域的门槛。 当Asterisk项目开始的时候(1999),也有一些其他的开源电话项目。但是,Asterisk通过与Zapata电话项目结合,能够提供公共交换电话网络(PSTN)接口,这是一个里程碑,使得软件的威力从纯数据通讯的网络迁移到了更实用的电信网络,后者是以PSTN为中心的。 Zapata电话项目由Jim Dixon创建。Jim Dixon是一位通讯咨询工程师,他受到CPU速度飞速进步的启发,决定开发Zapata电话项目。Dixon相信,只要有一块能够处理电话电路的简易接口卡,就有可能创造出便宜得多的电话系统。数字信号处理(DSP)将在CPU上通过软件实现,从而不需要在卡上配置昂贵的数字信号处理芯片。尽管这会加重CPU的负荷,但Dixon相信CPU的高性价比相对于昂贵的DSP芯片更有吸引力,并且CPU的性价比还会不断提高。 Dixon的远见卓识使他相信,会有很多其他人看到这个机会,他只需要等待,等某某人实现他所期待的关键进步,然后再动手干。但是几年过去了,他发现不仅没有人创造出他所要的接口卡,也没有迹象表明有人打算这么干。再明显不过了,如果他想要一场革命的话,他得亲手发动它。于是Zapata电话项目诞生了: 由于这个概念如此具有革命性,并且注定会在行业内掀起波澜,我决定以著名的墨西哥革命家Emiliano Zapata的名字来命名这项技术和组织。我把这块接口卡称为tormenta,在西班牙语中是风暴的意思。 也许我们应该称自己为Asterisk人。总之,我们欠Jim Dixon一个人情,一部分是因为他的天才创想,一部分是因为他的坚持和执着,更重要的是他把成果贡献给了开源社区。正是Jim的贡献,才使得Asterisk的PSTN引擎成为可能。 多年来,Astersik的Zapata接口卡不断改进。DAHDI(Digium Asterisk Hardware Device Interface)接口卡就是对Zapata的继承和发展。 现有的PBX都有各自的缺憾。不管它的特性有多丰富,总有些方面是没有覆盖到的,因为它永远赶不上用户的想象力。比如有的用户可能需要一个很古怪的特性,设计者要么没想到,要么觉得成本不划算而不考虑,而且,由于系统是封闭的,用户也不可能自己动手实现。 如果Internet受到这些封闭的商业利益方面的限制,很难想象它能获得今天如此广泛的认同。Internet的开放性使得任何人都负担得起。所以,人们参与进来了。几万个头脑在Internet上相互协作所创造出来的东西是任何一家公司都难以想象的。 像许多其他开源项目一样,比如Linux和那些承载Internet运转的其他软件,Asterisk的开发也是由网民的梦想驱动的,大家都觉得应该有比那些封闭产品更好的东西。人们知道,如果把各个PBX的优秀部分拿出来做进一步的分解,分解成一组可以互通的模块(就像一盒乐高砖块),那么就有可能创造出封闭企业不可能生产出来的产品。由于没有人能够声称他可以把握整个事情的全貌,也就不会缺乏各种观点和想法。 很多新手会觉得Asterisk就像一个未完工的大工地。也许把这些人看成画室的参观者更恰当,他们来到画室,期待看到已经标好价格、签好名的作品。但他们往往失望而去,因为他们发现Asterisk不过是一张张空白画布、一管管颜料和一堆没有用过的画刷。 Asterisk是众多艺术家培育出来的,比任何其他PBX的都多。很多厂家最多为某个产品配置几个开发者;Asterisk则有几十个。那些专有PBX厂商拥有几十人的全球支持团队;Asterisk则有几百个。 围绕Asterisk的相关知识的广度和深度在通讯行业是罕见的。在Asterisk这个大家庭中,有来自旋转拨号盘时代的老专家,也有来自语音信箱等企业通讯领域的专才,还有来自数据通讯领域的极客。这些人有一个共同的信念,那就是通讯行业需要一场真正的革命。 Asterisk就是导火索。 那些选择忽视Asterisk的通讯公司,我只有一句话送给他们:后果自负。它的灵活所带来各种可能性是哪怕最好的专有系统做梦都不敢想的。因为Asterisk是终极黑客的PBX。 黑客这个词的意思已经被大众媒体扭曲成了“恶意破坏者”。这很不幸,因为这个词在被媒体丑化之前已经存在很久了。正是黑客建造了这个被称为Internet的网络引擎。黑客建造了苹果计算机和UNIX操作系统。黑客也正在建造你的下一代通讯系统。不用害怕;这些家伙不坏,他们将建造比现今任何东西都要安全的系统。相较于不确定和不安全的封闭系统,黑客将能够快速响应安全领域的变化趋势,并根据公司政策和业界最佳实践调整电话系统。 (TODO) Asterisk:专家的PBX 在通讯行业的历史上还从来没有过任何一个系统,能够以任何一个价格满足任何一个需求。Asterisk很快就会和Linux一样,你将很难发现一个没有运行Asterisk的公司。 这种认可将会发生得比Linux还快,原因如下: Linux已经打开了认可开源软件的风气。 通讯行业举步维艰,缺少行业巨人的领导。Asterisk则有一个令人信服、切合实际而又令人激动的愿景。 最终用户已经受够了糟糕的功能和可怕的服务;Asterisk已经解决了前一个问题,后一个问题将留待企业家和开源社区来解决。 Asterisk令人信服的地方之一就是开发它并且为它提供支持的充满激情的社区。这个由Digium领导的社区敏锐地意识到了Asterisk的文化意义,并且对未来充满乐观。 Asterisk社区能量的一个副产品就是它所催生的通讯专家、网络专家和信息技术专家之间的合作。尽管在传统意义上这些能人之间互相并不买账,但在Asterisk社区他们能够欣赏彼此的技能。这种合作绝不可被轻视。 如果想要实现Asterisk的理想,社区就必须发展壮大;社区当前面临的关键挑战之一就是新用户的快速涌入。社区的老成员创造了Asterisk,他们当然欢迎新用户,但他们有时候会对那些没有做足功课的提问不耐烦。如果新人愿意花些时间去学习、探索和试验的话,很多问题是可以自己找到答案的。 当然,新用户不可能都是一个模子里倒出来。尽管有些人会乐呵呵地花几个小时做各种试验或阅读博客文章,有些人却是没有这种追求的。他们想要一种简单、直白的步骤指南,可以让他们快点把东西跑起来,最好还有一些实现常用功能的示例(例如语音信箱,自动接待等)。 对Asterisk专家来说,Asterisk其实是一种Web开发语言(这种观点是正确的),所以“步骤指南”毫无意义。你必须把自己浸泡到Asterisk中去体会它的细节。想想看,谁会指望通过步骤指南去掌握一门编程语言呢? 显然,没有一种方法可以适合所有人。(TODO)当你逛社区的时候,你应该知道里面什么人都有,他们有各自的技能和态度。其中有些人对新用户并不是很有耐烦,这只能说明他对那个问题不热心,并不表示他不欢迎你的加入。 像其他社区一样,Asterisk也有地方让大家讨论问题。相关的邮件列表可以在http://lists.digium.com找到,其中最重要的有三个: Asterisk-Biz Asterisk相关的商务方面的问题属于这个列表。如果你想买或者想卖和Asterisk相关的东西可以到这里来。 Asterisk-Dev Asterisk的开发者都在这里面晃荡。这个列表的目的就是讨论Asterisk的开发问题,它的参与者也都很严肃地坚持这一点。如果往里面提交任何跟Asterisk代码开发无关的东西肯定会被暴扁。AGI或者AMI编程接口一类的问题应该提交到Asterisk-Users。(TODO) Asterisk-Users 这是大多数Asterisk用户待的地方。这个列表有超过一万个用户,每天产生几百条消息。你当然可以去那里寻求帮助,但前提是你至少已经读过一些文档了。 Asterisk维基站 (TODO:这里有点让人困惑。首先,我没有找到Asterisk Wiki,和Asterisk相关的Wiki只有wiki.asterisk.org。其次,James Thompson就是voip-info.org的创办人,James Thompson在voip-info.org之前还创办了另外一个Wiki吗,搞不清楚。) http://www.voip-info.org 是社区维护的一个知识库,其中包含大量的有用信息,有时候这些信息还有自相矛盾点,但不失为一个大宝藏,其中除了Asterisk还有其他voip相关的内容。Asterisk相关文档到目前为止构成了voip-info的很大一部分,可能比其他任何地方的Asterisk信息加起来还多,所以voip-info是一个很受欢迎的Asterisk知识库。 一个重要的新维基站是Asterisk的官方Wiki,位于http://wiki.asterisk.org。虽然内容还没有voip-info.org全,但这个Wiki会得到更正式的支持,其中的信息可能会更及时、更准确些。 Asterisk社区在irc.freenode.net上有聊天频道。两个最活跃的频道是#asterisk和#asterisk-dev。为了防止垃圾信息的打扰,这两个频道都需要注册才能加入。 过去十年中,在世界上很多城市里,那些寂寞的Asterisk用户意识到可能有其他同道中人就住在附近。于是Asterisk用户组(AUGs)相继在各地出现。尽管这些用户组没有正式联系,但他们一般会链接彼此的网站,欢迎来自其他用户组的成员。搜索“Asterisk User Group”也许找到一个你所在地区的用户组。 Asterisk文档计划由Leif Madsen和Jared Smith创建,也得到了社区其他人的帮助。 Asterisk文档计划的目标是提供一个Asterisk相关的结构化的文字作品。相较于Wiki的灵活和即兴,文档计划更热衷于一种集中的方式来介绍Asterisk相关主题。 Asterisk文档计划可以在http://www.asteriskdocs.org免费获取。 今天的商业环境瞬息万变,大多数业务每过几年就要更新换代。但很少有企业在转变业务方向时,能够负担得起一套全新的通讯设施。现在的商业环境要求各项技术都具备足够的灵活性,包括通讯。 (TODO:进一步佐证上述观点) 那么从何开始呢?关于Asterisk,一本书是远远不够的。本书只能介绍一些基本的东西,但以此为基础你将能深入理解Asterisk,然后接下来,谁知道你将会用它创造出什么奇迹。
生物信息学/单细胞转录组上游分析 Cell Ranger 是一组的单细胞测序分析工具,用于处理 Chromium 单细胞数据read比对、生成特征barcode矩阵、进行细胞聚类和其他下游分析等。 Cell Ranger 包括与 3' 和 5' 单细胞基因表达解决方案及相关产品相关的分析流程: cellranger mkfastq 将 Illumina 测序仪生成的原始碱基call (BCL) 文件多路分解为 FASTQ 文件。 调用 Illumina 的 bcl2fastq 程序,生成具有特定于 10x 库的附加功能和简化的样本表格式。 cellranger count 将 cellranger mkfastq 中获取 FASTQ 文件并执行比对、过滤、条形码计数和 UMI 计数。 使用 Chromium 细胞条形码生成特征barcode矩阵、确定聚类并执行基因表达分析。 count流程可以将同一 GEM 孔上的多次测序run作为输入。 cellranger count 还处理特征Barcode数据和基因表达read。 cellranger aggr 可以整合多次cellranger count的输出,将这些结果归一化为相同的测序深度,然后重新计算特征barcode 矩阵并对组合数据进行分析。 aggr 管道可用于将来自多个样本的数据组合成实验范围的特征barcode 矩阵和分析(去除批次效应)。 cellranger reanalyze 使用 cellranger count 或 cellranger aggr 生成的特征barcode矩阵,并使用可调参数设置重新运行降维、聚类和基因表达算法。 cellranger multi 用于分析 Cell Multiplexing 数据。 从 cellranger mkfastq 输入 FASTQ 文件并执行比对、过滤、条形码计数和 UMI 计数。 使用 Chromium 细胞barcode生成特征barcode矩阵、确定聚类并执行基因表达分析。 cellranger multi 流程还支持特征Barcode数据的分析。 cellranger vdj 分析FASTQ文件,以V(D)J文库进行测序的。 spaceranger mkfastq ,参考cell Ranger mkfastq参数。 spaceranger count ,参考cell Ranger count参数。 spaceranger aggr ,参考cell Ranger aggr参数。 spaceranger targeted-compare 将起始输入库(称为父库)与其对应的靶向基因表达数据集进行比较。 与仅知道目标数据时相比,间隔器目标比较可用于更准确地评估目标性能。 提供质量控制指标来验证目标基因的富集程度和父样本数据的恢复程度。 此管道仅支持新鲜冷冻组织。 spaceranger targeted-depth 在假设的靶向基因表达实验的背景下总结了整个转录组分析 (WTA) 数据集。 给定现有的 WTA 数据集和目标面板 CSV 文件,spaceranger 目标深度计算映射到面板中目标基因的读数的分数。 此管道仅支持新鲜冷冻组织。(计算测序深度) cellranger-atac mkfastq , 参考cellranger mkfastq用法。 cellranger-atac count 接收 cellranger-atac mkfastq 的FASTQ文件和执行 ATAC分析,参考cell Ranger count参数: Read过滤和比对 Barcode计数 转座酶切割位点的鉴定 检测染色质峰 细胞类型分析 峰和转录因子的计数矩阵生成 降维 细胞聚类 聚类差异距离 cellranger-atac aggr 整合多个 cellranger-atac count 的输出结果,参考cell Ranger aggr参数: 输入的归一化运行,以每小区相同位数的片段(灵敏度) 检测可接近的染色质峰 聚合数据的峰值和转录因子的计数矩阵生成 降维 细胞聚类 聚类差异距离 cellranger-atac reanalyze 接收 cellranger-atac count 或 cellranger-atac aggr 进行下游分析,参考cell Ranger reanalyze参数: 细胞类型注释 降维 细胞聚类 聚类差异距离 Cell Ranger ARC 是一组分析工具,可处理 Chromium Single Cell Multiome ATAC + 基因表达测序数据,以生成与基因表达、染色质可及性及其关联相关的各种分析。 此外,由于 ATAC 和基因表达测量是在同一个细胞上进行的,我们能够进行将染色质可及性和基因表达联系起来的分析。 cellranger-arc mkfastq 多路分解原始碱基调用(BCL)通过Illumina测序仪生成到FASTQ文件的文件。它是围绕Illumina的bcl2fastq的包装,用另外的有用的功能,特定于10个库和一个简化的样品片材的格式。 相同的命令可用于解复用 ATAC 和 GEX 流通池。参考cellranger mkfastq用法。 cellranger-arc count 从 cellranger-arc mkfastq 中获取 FASTQ 文件并执行对齐、过滤、条形码计数、峰值调用和 ATAC 和 GEX 分子的计数。 此外,它使用 Chromium 细胞条形码生成特征条形码矩阵、执行降维、确定聚类、对聚类进行差异分析并识别峰和基因之间的联系。 计数管道可以从同一 GEM 孔上的多次测序运行中获取输入。参考cell Ranger count参数: cellranger-arc aggr 聚合和分析多次运行 cellranger-arc 计数的输出(例如来自一个实验的多个样本)。 功能包括将输入运行归一化为每个细胞的相同中值片段(灵敏度)、检测可访问的染色质峰、生成峰值的计数矩阵和聚合数据的转录因子、降维、细胞聚类和聚类差异可访问性分析。参考cell Ranger aggr参数。 cellranger-arc reanalyze 获取由 cellranger-arc count 或 cellranger-arc aggr 生成的分析文件并重新运行二次分析。 功能包括与细胞调用、降维、细胞聚类和聚类差异可访问性分析相关的可调参数设置。参考cell Ranger reanalyze参数。 Cell Ranger DNA includes five main pipelines: cellranger-dna mkfastq 包装 Illumina 的 bcl2fastq 以解析 Chromium 制备的测序样本并将条形码和读取数据转换为 FASTQ 文件。 cellranger-dna cnv 从 cellranger-dna mkfastq 中获取 FASTQ 文件并执行参考对齐、细胞调用、拷贝数估计和层次聚类。 cellranger-dna bamslice 从 cellranger-dna cnv 中获取 BAM 文件,并将其子集到指定的感兴趣的细胞。 cellranger-dna aggr 聚合来自多次运行的 cellranger-dna cnv、aggr 或 reanalyze 的输出); 并重新进行二次分析,包括拷贝数估计和层次聚类。 cellranger-dna reanalyze 获取现有 cellranger-dna cnv、aggr 或eanalyze运行的 HDF5 输出,仅限于选定的barcode或感兴趣的组,并重新执行拷贝数估计和层次聚类。 Supernova 是用于从 Chromium Linked-Reads 进行从头组装的软件包,Chromium Linked-Reads 由来自单个 DNA 源的单个全基因组文库制成。 超新星的一个关键特征是它创建了二倍体组件,从而在很长的距离内分别代表母本和父本染色体。 几乎所有其他方法都将同源染色体合并为单个不正确的“共识”序列。 超新星是创建大型基因组二倍体组装的唯一实用方法。 Supernova 软件包包括两条处理流程和一条结果处理: supernova mkfastq 包装 Illumina 的 bcl2fastq 以正确解析 Chromium 制备的测序样本并将barcode和read数据转换为 FASTQ 文件。参考cellranger mkfastq用法。 supernova run 从supernova mkfastq获取包含条形码读取的 FASTQ 文件,并构建基于图形的组件。 该方法是首先使用读取 kmers (K = 48) 构建一个程序集,然后使用读取对(K = 200)解析此程序集,然后使用条形码将这个程序集有效地解析为 K ≈ 100,000。 最后一步将同源染色体分离成相块,其长度通常为数兆碱基。 supernova mkoutput 采用 Supernova 的基于图形的组件,并生成多种适用于下游处理和分析的 FASTA 格式。 Long Ranger 是一组分析工具,可处理 Chromium 测序输出以read比对和调用以及定相 SNP、插入缺失和结构变体。 有五个主要工具: longranger mkfastq 包装 Illumina 的 bcl2fastq 以解析 Chromium 制备的测序样本并将barcode和read数据转换为 FASTQ 文件。 参考cellranger mkfastq用法。 longranger wgs 从全基因组样本中提取多路分解的 FASTQ 文件并执行比对、重复数据删除和过滤,并使用 Chromium 分子barcode调用和定相 SNP、插入缺失和结构变异。 longranger targeted 从目标样本(例如外显子组)中获取 FASTQ 文件,并执行比对、重复数据删除和过滤,并使用 Chromium 分子barcode调用和定相 SNP、插入缺失和结构变体。 read与整个基因组对齐,但统计数据仅报告提供的靶向BED 文件中的 pulled-down区域。 longranger basic 从 longranger mkfastq 获取 FASTQ 文件并执行基本的barcode处理,包括校正、条码白名单和将barcode附加到read。 longranger align 执行比对。 这些工具将特定于 Chromium 的算法与广泛使用的组件相结合,例如 BWA(在 Lariat aligner 中使用)和 GATK。 输出以标准 BAM、VCF 和 BEDPE 格式提供,这些格式增加了远程信息。 Illumina bcl2fastq(文档,教学视频) bcl2fastq软件下载 ranger系列的mkfastq(用法参考前文) 质量评估软件:FastQC 修剪Reads:trim_galore,Fastp ranger系列软件的count命令 STARsolo类似于ranger系列软件的count命令 STAR比对(Subread,Hisat2)+FearureCounts(HT-seq)计数 Kallisto/bustools,salmon/Alevin(10X and Drop-seq)直接从fatsq文件中定量 全长转录本:STAR -> featureCounts Tag-based数据集:Kallisto bus -> Bustools 10x处理流程文档 关于本页面所有软件用法请参考:简介 - 生物信息软件参考文档 (gitbook.io)
Python/元类 在Python语言中,类(class)也是对象,即是特定类的实例。这里的特定类就是元类(metaclass)。 Python3的元类的新变化,见Pep 3115。 元类的方法__prepare__可以被调用,以创建一个词典或其它类,以存储元类实例(即普通类)的类成员。 元类的方法__new__可以被调用,以创建类的新实例。 Python的所有标准类型是"type"类的实例。即标准类型的元类是"type"。 >>> type(object) <type 'type'> >>> type(int) <type 'type'> >>> type(list) <type 'type'> 如同list, int, object, "type"自身也是正常的Python对象,是元类的实例。实际上,它是其自身的实例: >>> type(type) <type 'type'> 给元类传递新类的名字(作为字符串)、继承的基类的列表、类成员名字组成的字典,就可以把元类当作类工厂创建其实例,即新类: >>> class MyClass(BaseClass): ... attribute = 42 可写作: >>> MyClass = type("MyClass", (BaseClass,), {'attribute' : 42}) 在创建一个类时,可以用metaclass关键字指定不同于"type" 的元类。这个类及其子类将使用定制的元类。例如: class CustomMetaclass(type): def __init__(cls, name, bases, dct): print "Creating class %s using CustomMetaclass" % name super(CustomMetaclass, cls).__init__(name, bases, dct) class BaseClass(metaclass=CustomMetaclass): pass class Subclass1(BaseClass): pass 这将打印: Creating class BaseClass using CustomMetaclass Creating class Subclass1 using CustomMetaclass 使用定制元类,在创建类时可以增加或删除属性与方法,注册一个类或其子类的创建。 Wikipedia article on Aspect Oriented Programming Unifying types and classes in Python 2.2 O'Reilly Article on Python Metaclasses http://www.python.org/dev/peps/pep-3115/ http://eli.thegreenplace.net/2011/08/14/python-metaclasses-by-example/
工程材料/纯铜 纯铜的特点 纯铜呈玫瑰红色,表面形成氧化铜膜后外观呈紫红色,故俗称紫铜。 熔点1083°C。 密度8.94g/cm3。 具有面心立方晶格,强度不高,但塑性好,有着良好的加工性能和可焊接性能,易于冷、热加工成形。 纯铜的导电性、导热性好,仅次于银。 化学稳定好,在大气、淡水及蒸汽中均有优良的抗蚀性,但在氨、氯盐,以及氧化性的硝酸、浓硫酸及海水中抗蚀性很差。 工业纯铜分为四种:T1、T2、T3、T4。编号越大,纯度越低。 注意与合金工具钢的牌号进行区分。 常用来制造电导线、散热器、冷凝器等。纯铜的强度低, 不宜作结构材料。
MySQL/Language/Index 根据索引的原理,全NULL值不被记录在索引上 主键索引 PRIMARY KEY: 唯一索引,不允许有空值。一般是在建表的时候同时创建主键索引。一个表只能有一个主键 唯一索引 UNIQUE: 列的值必须唯一,但允许有空值。如果是组合索引,则列值的组合必须唯一。可以通过ALTER TABLE table_name ADD UNIQUE (column);创建唯一索引。可以通过ALTER TABLE table_name ADD UNIQUE (column1,column2);创建唯一组合索引 外键索引 foreign key上建立了一个index;(至少在oracle上建立外键,不会自动建立index) 普通索引 INDEX:最基本的索引,它没有任何限制。可以通过ALTER TABLE table_name ADD INDEX index_name (column);创建普通索引 组合索引 INDEX:即一个索引包含多个列。多用于避免回表查询。可以通过ALTER TABLE table_name ADD INDEX index_name(column1, column2, column3);创建组合索引 全文索引 FULLTEXT:是目前搜索引擎使用的一种关键技术。可以通过ALTER TABLE table_name ADD FULLTEXT (column);创建全文索引 前缀索引 索引一经创建不能修改,如果要修改索引,只能删除重建。可以使用DROP INDEX index_name ON table_name;删除索引。 适合索引的列是出现在where子句中的列,或者连接子句中指定的列 基数较小的类,索引效果较差,没有必要在此列建立索引 使用短索引,如果对长字符串列进行索引,应该指定一个前缀长度,这样能够节省大量索引空间 不要过度索引。索引需要额外的磁盘空间,并降低写操作的性能。在修改表内容的时候,索引会进行更新甚至重构,索引列越多,这个时间就会越长。所以只保持需要的索引有利于查询即可。 mysql> REPAIR TABLE tbl_name QUICK; mysql> SHOW INDEX FROM tbl_name; 主键、唯一键、外键的创建方式: 在字段级以key方式建立, 如 create table t (id int not null primary key); 在表级以constraint方式建立,如create table t(id int, CONSTRAINT pk_t_id PRIMARY key (id)); 在表级以key方式建立,如create table t(id int, primary key (id)); 在CREATE TABLE语句中的key关键字单用,是指普通索引。 ALTER TABLE语句创建索引(PRIMARY KEY,INDEX,UNIQUE) mysql>ALTER TABLE tbl_name ADD INDEX index_name (column list); mysql>ALTER TABLE tbl_name ADD UNIQUE index_name (column list); mysql>ALTER TABLE tbl_name ADD PRIMARY KEY index_name (column list); mysql>ALTER TABLE tbl_name DROP INDEX index_name (column list); mysql>ALTER TABLE tbl_name DROP UNIQUE index_name (column list); mysql>ALTER TABLE tbl_name DROP PRIMARY KEY index_name (column list);
Asterisk权威指南/前言 这本书是为使用Asterisk的人而写的。 Asterisk是一个开源、专业的电话系统,主要设计运行于Linux系统上。Asterisk把超过100年的电话技术知识固化到一组稳定的、紧密集成的通讯应用程序中。Asterisk的强大在于它与生俱来的可定制化,以及天下无双的标准化。没有任何其他PBX系统能够得到如此创造性的应用。 语音信箱、电话会议、呼叫队列和座席、等待音乐和呼叫保持这些应用程序都是内置的标准特性。另外,Asterisk可以和其他商业技术深度集成,这些都是那些封闭、专有的PBX不敢想的。 Asterisk对初学者来说似乎有点复杂和令人畏惧,这说明文档对Asterisk的发展很重要。文档降低了初学的门槛,并帮助人们设想各种可能性。 作为《Asterisk:电话的未来》的第三版,《Asterisk权威指南》在O'Reilly Media的大力支持下面世了。我们之所以决定改名,是因为Asterisk已经获得了广泛的成功,它已不再是一项未来的技术了。Asterisk已经到来。 这本书是为了Asterisk社区,也来自Asterisk社区。 本书是面向Asterisk初学者的,但我们假设你已经具备基本的Linux系统管理、网络和其他IT知识。如果还没有,我们建议你学习O'Reilly出版的大量而优秀的相关书籍。我同时还假设你对通讯技术相当陌生(不管是传统的交换电话还是新的VoIP)。 不管怎么说,本书对有经验的Asterisk管理员也是有用的。我们自己就把它作为对一些不熟悉的特性的参考。 本书分为下列章节: 第一章 一场电话革命 点燃你的兴趣之火。欢迎来到Asterisk! 第二章 Asterisk架构 讨论Asterisk系统的文件结构。 第三章 安装Asterisk 获取、编译和安装Asterisk。 第四章 初始化配置任务 描述新安装的Asterisk系统所需要的一些初始配置任务。这一章把Asterisk(不管何种用途)所需的基本配置文件过了一遍。 第五章 用户设备配置 指导如何配置电话等设备连接到Asterisk并实现呼叫。 第六章 拨号计划基础 介绍Asterisk的核心,拨号计划。 第七章 外部连通性 讨论如何配置Asterisk以连接到其他系统,例如其他Asterisk服务器,Internet电话服务供应商,或者传统电话网络。 第八章 语音信箱 讨论Asterisk最受欢迎的特性之一——语音信箱——的用法。 第九章 国际化 讨论将Asterisk部署到北美以外地区的相关问题。 第十章 深入拨号计划 涉及拨号计划的高级概念。 第十一章 保持和转移 介绍Asterisk广受欢迎的两个特性——呼叫保持和呼叫转移。 第十二章 Internet呼叫路由选择 讨论Internet不同管理域之间的呼叫路由选择。 第十三章 自动呼叫分配(ACD)队列 讨论如何在Asterisk中建立呼叫队列。 第十四章 设备状态 介绍设备状态的概念,以及如何将其用作在线指示器。 第十五章 自动接待 介绍如何使用拨号计划构建语音菜单。 第十六章 关系数据库集成 讨论Asterisk和数据库集成的各种方式。 第十七章 交互式语音应答(IVR) 讨论如何使用Asterisk构建响应呼叫者输入的应用程序。 第十八章 外部服务 讨论如何连接外部服务,诸如LDAP、日历、IMAP,XMPP,Skype,TTS等。 第十九章 传真 讨论使用Asterisk接收和发送传真的各种选项。 第二十章 Asterisk管理接口 介绍监视和控制Asterisk系统的网络接口。 第二十一章 Asterisk网管接口 介绍用编程语言实现呼叫控制的Asterisk接口。 第二十二章 集群 介绍当需求超过一台服务器的容量时,如果配置多台服务器的集群。 第二十三章 分布式统一号码发现(DUNDi) 介绍Asterisk内置的P2P协议,用于呼叫路由选择。 第二十四章 系统监视和日志 介绍Asterisk系统的监视和日志接口。 第二十五章 Web接口 讨论Asterisk的Web接口。 第二十六章 安全 讨论Asterisk管理员应该关注的常见安全问题。 第二十七章 Asterisk:电话的未来 最后,我们展望开源电话领域的未来。 附录A 理解电话技术 讨论传统电话网络用到的技术。这些内容曾经是本书老版本中的一章。尽管和Asterisk没有直接的关系,我们认为这些内容会对一些读者有用,所以我们把它放在附录中。 附录B VoIP协议 讨论VoIP的各种特性。也是老版本中的一章。 附录C 为Asterisk准备一个系统 讨论一些在部署Asterisk时需要考虑的问题。 本书的主要目的是作为Asterisk 1.8的文档;但其中的很多惯例和信息是版本无关的。Linux是我们运行和测试Asterisk的操作系统,我们针对CentOS(基于RHEL)和Ubuntu(基于Debian)提供了相应的安装说明。 本书使用下列文例: 斜体 表示新术语、URL、email地址、文件名、文件扩展名、路径名、目录、包名,以及Unix程序、命令、选项和参数。 定宽字体 用于显示代码示例、文件内容、命令行交互、库名和数据库命令。 定宽粗体 表示用户输入的命令或文本。也用于在代码中强调重点。 定宽斜体 表示这些文本应该被用户提供的内容替换。 [ 关键字 ] 表示可选的关键字或参数。 [ 选择1 | 选择2 ] 表示两选其一。 使用代码示例 本书的目的是帮助你完成工作。一般来说,你可以把本书的代码用在你的程序或文档中。你并不需要联系我们以获得许可,除非你打算自己发行其中很大一部分的代码。例如,你写一个程序使用其中的几个片段,这个不需要许可;销售或发行包含示例代码的光盘则需要许可。通过引用本书的示例代码来回答问题不需要许可;在你的产品文档中包含大量的示例代码则需要许可。 我们赞赏但不要求归属权声明。归属权声明通常包括标题、作者、出版者和ISBN。例如:“Asterisk: The Definitive Guide, Third Edition, by Leif Madsen, Jim Van Meggelen, and Russell Bryant (O’Reilly). Copyright 2011 Leif Madsen, Jim Van Meggelen, and Russell Bryant, 978-0-596-51734-2.” 如果你觉得你对示例代码的使用超出上述许可范围,可以随时通过<permissions@oreilly.com>联系我们。 当你在技术图书的封面上看到Safari在线图书的图标时,就表示该书可以通过O'Reilly的Safari网络书架阅读。 Safari提供了一种比电子书更好的方案。它是一个虚拟图书馆,可以让你轻易搜索几千本顶级技术图书、拷贝示例代码、下载章节,并且当你需要更准确、更及时的信息时可以快速获得答案。访问http://safari.oreilly.com就可以免费试用。 出版者地址: O’Reilly Media, Inc. 1005 Gravenstein Highway North Sebastopol, CA 95472 (800) 998-9938 (in the United States or Canada) (707) 829-0515 (international or local) (707) 829-0104 (fax) 本书网址(其中包含勘误表、示例等信息): http://oreilly.com/catalog/9780596517342 评论或技术问题请联系: <bookquestions@oreilly.com> 出版者网址: http://www.oreilly.com 出版者facebook: http://facebook.com/oreilly 出版者twitter: http://twitter.com/oreillymedia 出版者YouTube: http://www.youtube.com/oreillymedia (TODO)
CE修改器教程关指南(x64) 本教程旨在让读者能够自行通关教程关,不含实战内容。 打开 CE , 从菜单栏->帮助->CE教程(64位)启动教程 在CE的左上角找到小电脑图标。按下,弹出进程列表。找到 Tutorial-x86_64 , 选中,按打开按钮或者双击进程名。 这样CE上方就会显示进程的名字,说明附加到进程了。然后,点击教程里的下一步。 现在,你应该可以在窗口里看到一个健康值和一个“打我”按钮。 每次点击“打我”,健康值都会减少。 我们需要先找到这个健康值,然后把它改成1000. 我们使用精确数值扫描来找。数值类型默认是4字节就好。然后把健康值填到上面的框框里。 然后按“首次扫描”。 你可能会扫描出几百个结果,里面肯定有我们需要的那个,不过太多了。 我们得筛选一下。 回到教程,按“打我”,健康值减少了!变成95了! 去左边地址栏里看一看,你就会发现有几个地址变成红色了,这说明他们值变了! 那么好,让我们筛选出变成了95的那个吧。 在右边数值栏里输入 95 ,点击 “再次扫描”。 只有一个结果,这就是我们要找到那个。 把这个地址添加到下面的地址栏(就是一个地址收藏夹)里。 什么?你问我怎么添加? 选中地址,按地址栏上面的那个↘ 选中地址,右键->将选中的地址添加到地址列表 双击地址 呐呐呐,这些操作都可以啊。 然后,要更改这个地址的数值。 在地址栏里双击数值95 右键地址->更改记录->数值 然后输入 1000. 回到教程,你可以看到下一步可以点了。那么,让我们继续吧! 小技巧:在左边的结果栏里右键地址时除了“将选中的地址添加到地址列表”,还有一个“改变已选中地址的数值”。这里可以直接改,少去了添加到地址收藏夹的步骤。 操作虽然简单,但是大家需要明白这其实是一个筛选的过程,这样操作就能把地址找出来。 首先说明下重点. 因为你要进行的是"新的扫描",所以你必须首先点击"新的扫描"才能开始一个"新的扫描". (你一定认为这很简单, 但是有很多人困在这一步啊)所以请记住这一步骤 你现在应该已经点击了"新的扫描",左边结果列表清空,看到了“首次扫描”按钮,让我们继续。 在这一关,你会看到一个血槽。 在上一关中我们知道初始数值的大小,所以我们可以利用"精确数值"扫描,但本关中仅有一个血槽,我们并不知道它的初始数值。 我们只知道这个数值在0到500之间,并且每次点击"打我"之后便会减些健康值,每次减少的健康值会显示在进度条的上方。 同样有好几种方法可以找这个数值,(例如使用"数值减少了..."扫描方式),但我只教你最简单的方法,"未知的初始值"和"减少的数值"。 由于不知道当前数值的大小,"精确数值"扫描便派不上了用场,所以选择扫描类型选中"未知的初始值"。数值类型仍然选择 4 字节(这是因为大多数WINDOWS应用程序都使用 4 字节存放数据)。点击"首次扫描"并等待扫描结束。 你应该可以得到2000000+个结果,因为结果太多了,CE就不列出了。 按“打我”,你会看到血槽少了,还有一个扣血数字一闪而过,没必要记这个数,我们这个方法就是防止没看到扣了多少的。 CE 里,下拉扫描类型框,选择减少了的数值,按再次扫描(此时血量减少了)。 然后回到教程,什么都不要做,再回到CE,扫描类型选中“未变动的数值”,再次扫描。因为我们上次扫描之后只是回教程里看了看,没扣血嘛。 这一下结果就更少了。 打我 => 扫描减少了的数值 => 扫描没变动的数值 反复操作,最后就会只剩几个地址。 我们把结果里的几个0~500的地址添加到下面地址栏里。然后逐个更改看看哪个凑效。把其中一个改成5000后,下一步按钮就可以点了。 大家一定要明白这样操作的思路: 血量减少=>CE搜索减少的数值 血量不变=>CE搜索不变的数值 血量增加=>CE搜索增加的数值 这样反复筛减,就能很容易找到最终的结果。 这一关的操作和前面和基本相同,主要是介绍一下什么浮点数: 浮点数就是带小数点的数字。 如何扫描呢: 1、首先将数值类型改成 浮点数。 2、浮点数扫描时不必输入后的小数 94.444 扫描时输入94就可以了 其它的操作和前面的基本相同。 首次扫描->扣血->再次扫描。 找到我们要的地址,改数值为 5000 浮点数也分为2种: 1、浮点数 也叫单精度浮点数 英文是Single Float 2、双浮点数 也叫双精度浮点数 英文是Double Float 这里面要强调的是: 浮点数的长度是4字节,使用4字节也可搜索到浮点数,但需要使用未知的初始值搜索。 双浮点数的长度是8字节,使用8字节也可搜索到浮点数,但需要使用未知的初始值搜索。 前面的教程已经教会你内存的基本搜索方法。本关有点特别: 本关的目的就是要让改变数值的按钮失效,很神奇,但是有什么用呢? 1、在游戏中我们可以利用此功能使金钱数量不会发生变化。 2、可以利用此功能让怪物攻击失效,从而实现无敌的效果。 3、让弹药不会减少,从而实现无限弹药的效果 那么,开始吧 先找到目标地址,这是个整数,就用前面的方法找。 添加到地址栏里。 然后,右键这个地址->找出是什么改写了这个地址。按“是”。 弹出一个小窗“下列代码写入到xxxxxxx”。 按教程里的改变数值,小窗口中会出现一行代码,选中代码,然后点击替换,确定。 这样这行代码就会失效。 按教程里的改变数值,这时候数值已经不会变了,下一步。 操作非常简单,但是为什么这样就会使按钮的功能失效: 改变数值按钮其实是通过 代码 mov [eax],edx 来实现数值改变的。 我们在的最后一步操作就是要把这行代码替换成什么也不做(英文是 Nop),这样就会让按钮的功能失效。 在一家母猪养殖基地门口,张三呆呆地立在那里,他手上拿着的,是上次来拜访李四的地址。 “什么?之前在这里住的人搬哪里去了?不知道啊,这里就是一个不断变动的地址啊,哪会每一次都是同一个人。”基地里的人告诉张三。 “你也不知道之前这里的人去了哪吗?”张三问 “我就是一个在这里干活的,我哪知道那么多” 张三遗憾地走出了基地。 李四,是张三的老同学。一年前被选上优秀扶贫干部,正被到处派遣去扶贫。 因为地址经常换,这让张三很是头疼。 “你在哪里....我的老同学?”张三说 ... 在一所屋子里,李四正坐在办公桌前,整理着公务文件。 突然,从门外进来一个人,李四抬头一看,是张三。 “李四,我可终于找到你了啊!”张三哭道。 “我搜寻了2000000+个地址,不断扫描不变的数值,最后一个一个上门拜访,终于才见到你真人啊!”张三说。 李四:“我有那么难找吗?” 张三:“你经常调动,地址又没有一个固定的,当然难找了” 李四:“那么我告诉你一个技巧,包你以后能找到我” 张三:“什么技巧?” 李四:“知道为什么每次上面有文书下达,文件都能顺利送到我手上吗?” 张三:“因为他们知道你的地址变成啥了?” 李四:“不是,因为他们知道【指针】” 张三:“那是什么” 李四:“我教你如何找指针哦” “首先,你已经有我的地址了,那么,右键这个地址->找出是什么改写了这个地址 接下来,按下改变数值,模拟文书下达,于是我的值变了,除此之外CE还发现了一个指令 mov [rdx],eax 你按下“详细信息”,就会看到一堆名叫RDX的家伙,下边有一个 ,RDX = 015730C0”(你的RDX可能是别的值 张三:“这是你家地址” 李四: 没错,复制这个 015730C0 ,回到CE主窗口,新的扫描,勾上16进制,然后填入015730C0 ,扫描一波,你会发现一个绿色的地址 Tutorial-x86_64.exe+306AD0 张三:“为什么是绿色的” 李四: 因为这是乡政府的地址,乡政府的地址是不变的,不论什么时候你去这里,这里都是乡政府。 而在乡政府那里,存着我的地址。 那么这意味着什么呢?无论什么时候,你去乡政府那里,都能获取我的地址,也许我的地址是变动的,但是乡政府那里绝对会记录我的最新地址。 你只要去找乡政府,就能从他那拿到我的地址了,有我的地址了,还怕找不到我吗? 张三:“那我怎么用呢?” 李四: 在CE地址栏右上角那里,按“手动添加地址”,勾上“指针”。 把 Tutorial-x86_64.exe+306AD0 填到最下边的框框里,上面的偏移填写 0 , 然后最上边地址那里,就出现 刚才你苦苦搜寻的目标地址 015730C0 了。 按下确定,地址栏里新增一条记录, P -> 015730C0   4  字节   324 这个就是靠指针寻找我的方法了。 张三:“果真如此吗?” 李四: 那么你去教程里,按一下“改变指针”。 是不是 015730C0 根本没什么用了,那个新增的 P -> 地址的值是正确的随着变化的? 在指针地址这里把值修改为 5000 , 然后单击地址前面的框框,锁定住这个数。 再回到教程,单击改变指针,等一会,就可以下一步了。 张三:“那么偏移是个啥” 李四: 有时,乡政府那里登记的不是我家地址,而是村委会地址。我一般就在村委会旁边往右第4个房子边住。 这情况下,你得到村委会的地址后,+04就可以算出我的地址了。 张三:“+04是从哪里看的,我怎么知道登记的是村委会地址还是你家” 李四: mov [rdx],eax 如果是 mov [rdx+04],eax 那你就+4,如果不加,那你就不用加了。
GNU Health/资料 除了你现在正在读的 GNU Health 文档以外,还有其他 GNU Health 社群的学习资源。 GNU Health 的官网:http://health.gnu.org There are several mailing lists for information exchange via email: health: General questions and discussions about GNU Health health-announce: GNU Health releases and events (read-only list) health-dev: Development, requests and bugs health-security: Security advisories around GNU Health and its components (read-only list) health-i18n: GNU Health localization and translation health-es: General questions and discussions about GNU Health in Spanish health-fr: General questions and discussions about GNU Health in French health-pt: General questions and discussions about GNU Health in Portuguese To subscribe to these mailing lists, please visit https://savannah.gnu.org/mail/?group=health GNU Health 官方的 Telegram 频道:https://t.me/gnuhealth 如果想要获得最新情报,可以关注 GNU Health 的官方推特:https://twitter.com/gnuhealth 你可以在以下的 IRC 频道获得实时帮助: #gnu-health: 英文 #gnu-health-es: 西班牙文 你可以使用任意的 IRC 客户端或是 Free node web interface On August 26th, 2011, the Free Software Foundation adopted GNU Health as an official GNU project. Since then, the development environment is hosted at GNU Savannah. Besides the mailing lists, here you can post bugs, tasks and check out the latest development version. http://savannah.gnu.org/projects/health This server is in Europe and serves as a demo server to practice and see a running system. You can find more information in the Online Demo Database section of this book.
MySQL/Language/Queries SELECT * FROM a_table_name WHERE condition GROUP BY grouped_field HAVING group_name condition ORDER BY ordered_field LIMIT limit_number, offset SELECT子句允许任何SQL表达式: SELECT DATABASE() -- returns the current db's name SELECT CURRENT_USER() -- returns your username SELECT 1+1 -- returns 2 表中所有列: SELECT * FROM `stats` SELECT id FROM `stats` -- retrieve a field called id from a table called stats 或 SELECT MAX(id) FROM `stats` SELECT id*2 FROM `stats` 使用语法`db_name`.`table_name`: SELECT id FROM `sitedb`.`stats` 也可以在SELECT子句中指明表名: SELECT `stats`.`id` -- retrieve a field called id from a table SELECT `sitedb`.`stats`.`id` SELECT * FROM `stats` WHERE `id`=42 SELECT * FROM `antiques` WHERE buyerid IS NOT NULL 所有行通过一列或多列分组。在每个分组上用某个聚集函数(aggregate function)计算分组的值。 SELECT city, MAX(age), MIN(age), AVG(age) GROUP BY `city` SELECT city, sex, MAX(age), MIN(age), AVG(age) GROUP BY `city`, `sex` HAVING子句对GROUP BY子句的分组施加过滤。各种子句的运行先后次序: WHERE子句先过滤。 GROUP BY子句做分组。 HAVING子句对分组做过滤。可以使用聚集函数,不能使用索引,不能被优化。 不正确的使用HAVING的例子: SELECT city, sex, MAX(age), MIN(age), AVG(age) GROUP BY `city` HAVING sex='m' 不正确的使用HAVING的例子: SELECT city, sex, MAX(age), MIN(age), AVG(age) GROUP BY `city`, `sex` HAVING sex='m' 虽然其结果正确,但更优化的方案是用WHERE子句来做sex='m'过滤。 正确的使用HAVING的例子: SELECT city, sex, MAX(age), MIN(age), AVG(age) GROUP BY `city` HAVING MAX(age) > 80 SELECT * FROM `stats` ORDER BY `id` 缺省为ASCENDING. 可指示为DESCENDING: SELECT * FROM `stats` ORDER BY `id` ASC -- default SELECT * FROM `stats` ORDER BY `id` DESC -- inverted NULL被认为是最小的值。 可指定列的位置,代替列名: SELECT `name`, `buyerid` FROM `antiques` ORDER BY 1 -- name SELECT `name`, `buyerid` FROM `antiques` ORDER BY 2 -- buyerid SELECT `name`, `buyerid` FROM `antiques` ORDER BY 1 DESC 可以使用SQL表达式: SELECT `name` FROM `antiques` ORDER BY REVERSE(`name`) 可以随机排序: SELECT `name` FROM `antiques` ORDER BY RAND() 使用GROUP BY子句,结果按照GROUP BY中的列名排序,除非指定了ORDER BY子句。在GROUP BY中甚至可以指定升序或降序: SELECT city, sex, MAX(age) GROUP BY `city` ASC, `sex` DESC 如果不希望按照GROUP BY排序,指出ORDER BY NULL: SELECT city, sex, MAX(age) GROUP BY `city`, `sex` ORDER BY NULL 指出返回的最大行数: SELECT * FROM `antiques` ORDER BY id LIMIT 10 通常与ORDER BY配合使用。 也可以得到随机排序的行数: SELECT * FROM `antiques` ORDER BY rand() LIMIT 1 -- one random record SELECT * FROM `antiques` ORDER BY rand() LIMIT 3 可以指定从哪行开始返回指定数量的行。首行编号为0: SELECT * FROM `antiques` ORDER BY id LIMIT 10 SELECT * FROM `antiques` ORDER BY id LIMIT 0, 10 -- synonym 可以对结果集做分页: SELECT * FROM `antiques` ORDER BY id LIMIT 0, 10 -- first page SELECT * FROM `antiques` ORDER BY id LIMIT 10, 10 -- second page SELECT * FROM `antiques` ORDER BY id LIMIT 20, 10 -- third page 可选的语法: SELECT * FROM `antiques` ORDER BY id LIMIT 10 OFFSET 10 检查查询语句的有效性,但不需要返回结果: SELECT ... LIMIT 0 优化提示: SQL_CALC_FOUND_ROWS可加速查询 LIMIT对于使用ORDER BY, DISTINCT,GROUP BY特别有效,因为不需要考虑所有行。 如果服务器把查询结果在内部存放在一个临时表中,LIMIT有助于确定临时表耗用多少内存。 DISTINCT关键字用于在结果集中去除重复的行: SELECT DISTINCT * FROM `stats` -- no duplicate rows SELECT DISTINCTROW * FROM `stats` -- synonym SELECT ALL * FROM `stats` -- duplicate rows returned (default) 可用于获取一个列中所有不同的值: SELECT DISTINCT `type` FROM `antiques` ORDER BY `type` 可用于获取几个列中所有不同值的组合: SELECT DISTINCT `type`, `age` FROM `antiques` ORDER BY `type` 如果结果集中某个列是主键、独一无二索引,则DISTINCT是无用的。对于使用了GROUP BY子句,DISTINCT是无用的。 SELECT id FROM stats WHERE position IN ('Manager', 'Staff') SELECT ownerid, 'is in both orders & antiques' FROM orders, antiques WHERE ownerid = buyerid UNION SELECT buyerid, 'is in antiques only' FROM antiques WHERE buyerid NOT IN (SELECT ownerid FROM orders) SELECT ownerfirstname, ownerlastname FROM owner WHERE EXISTS (SELECT * FROM antiques WHERE item = 'chair') SELECT buyerid, item FROM antiques WHERE price > ALL (SELECT price FROM antiques) some是any的别名 not in 是 “<>all”的别名,用法相同。 in 与“=any”是相同的。 SELECT [ALL | DISTINCT | DISTINCTROW ] [HIGH_PRIORITY] [STRAIGHT_JOIN] [SQL_SMALL_RESULT | SQL_BIG_RESULT] [SQL_BUFFER_RESULT] [SQL_CACHE | SQL_NO_CACHE] [SQL_CALC_FOUND_ROWS] ... HIGH_PRIORITY 通常DML语句(INSERT, DELETE, UPDATE)比SELECT的优先级高。如果指出HIGH_PRIORITY那么SELECT比DML优先级高。 STRAIGHT_JOIN 迫使MySQL求解表的JOIN按照从左至右次序 SQL_SMALL_RESULT 当使用DISTINCT 或 GROUP BY,告诉优化器返回的结果只有几行 SQL_BIG_RESULT 当使用DISTINCT 或 GROUP BY,告诉优化器返回的结果有很多行 SQL_BUFFER_RESULT 迫使MySQL把结果集保存在临时表中,这有助于尽可能避免LOCK SQL_CACHE 迫使MySQL把结果集保存在查询cache中。只用于query_cache_type值是DEMAND 或 2 SQL_NO_CACHE 告诉MySQL不要缓存结果,用于很少做该查询或者结果经常变化。 SQL_CALC_FOUND_ROWS 用于LIMIT子句,告诉服务器如果不写LIMIT时应该返回多少行。可以在别的查询中返回这个树: SELECT SQL_CALC_FOUND_ROWS * FROM `stats` LIMIT 10 OFFSET 100; SELECT FOUND_ROWS(); USE INDEX: 使用索引 FORCE INDEX: 强制使用索引 IGNORE INDEX: 禁止使用索引 例子: SELECT * FROM table1 USE INDEX (date) WHERE date between '20150101' and '20150131' SELECT * FROM table1 IGNORE INDEX (date) WHERE id between 100 and 200 返回两种表中所有行: SELECT * FROM english UNION ALL SELECT * FROM hindi UNION同义 UNION DISTINCT. 使用UNION ALL返回所有行(包含重复行) SELECT word FROM word_table WHERE id = 1 UNION SELECT word FROM word_table WHERE id = 2 (SELECT magazine FROM pages) UNION DISTINCT (SELECT magazine FROM pdflog) ORDER BY magazine (SELECT ID_ENTRY FROM table WHERE ID_AGE = 1) UNION DISTINCT (SELECT ID_ENTRY FROM table WHERE ID_AGE=2) 多表之间的操作,可以用JOIN,也可以用子查询。 首先创建一个数据库: CREATE TABLE english (Tag int, Inenglish varchar(255)); CREATE TABLE hindi (Tag int, Inhindi varchar(255)); INSERT INTO english (Tag, Inenglish) VALUES (1, 'One'); INSERT INTO english (Tag, Inenglish) VALUES (2, 'Two'); INSERT INTO english (Tag, Inenglish) VALUES (3, 'Three'); INSERT INTO hindi (Tag, Inhindi) VALUES (2, 'Do'); INSERT INTO hindi (Tag, Inhindi) VALUES (3, 'Teen'); INSERT INTO hindi (Tag, Inhindi) VALUES (4, 'Char'); SELECT hindi.Tag, english.Inenglish, hindi.Inhindi FROM english, hindi WHERE english.Tag = hindi.Tag -- equal SELECT hindi.Tag, english.Inenglish, hindi.Inhindi FROM english INNER JOIN hindi ON english.Tag = hindi.Tag MySQL, JOIN同义于INNER JOIN或CROSS JOIN (笛卡尔积). 笛卡尔积: SELECT * FROM english, hindi 也可以写为: SELECT * FROM english CROSS JOIN hindi Natural Join给出INNER JOIN在两张表的同名的列上。 SELECT hindi.tag, hindi.Inhindi, english.Inenglish FROM hindi NATURAL JOIN english SELECT field1, field2 FROM table1 LEFT JOIN table2 ON field1=field2 SELECT e.Inenglish as English, e.Tag, '--no row--' as Hindi FROM english AS e LEFT JOIN hindi AS h ON e.Tag=h.Tag WHERE h.Inhindi IS NULL English tag Hindi One 1 --no row- SELECT '--no row--' AS English, h.tag, h.Inhindi AS Hindi FROM english AS e RIGHT JOIN hindi AS h ON e.Tag=h.Tag WHERE e.Inenglish IS NULL English tag Hindi --no row-- 4 Char MySQL还没有提供FULL OUTER JOIN。替代办法是: (SELECT a.*, b* FROM tab1 a LEFT JOIN tab2 b ON a.id = b.id) UNION (SELECT a.*, b* FROM tab1 a RIGHT JOIN tab2 b ON a.id = b.id) 多个表的连接: SELECT ... FROM a JOIN (b JOIN c on b.id=c.id) ON a.id=b.id 例如: mysql> SELECT group_type.type_id, group_type.name, COUNT(people_job.job_id) AS count FROM group_type JOIN (groups JOIN people_job ON groups.group_id = people_job.group_id) ON group_type.type_id = groups.type GROUP BY type_id ORDER BY type_id +---------+--------------------------------------+-------+ | type_id | name | count | +---------+--------------------------------------+-------+ | 1 | Official GNU software | 148 | | 2 | non-GNU software and documentation | 268 | | 3 | www.gnu.org portion | 4 | | 6 | www.gnu.org translation team | 5 | +---------+--------------------------------------+-------+ 4 rows in set (0.02 sec) 子查询出现在 WHERE (或HAVING) 子句中。只有一个列可以出现在子查询的SELECT语句中,即子查询的结果集只能含一列。子查询禁用ORDER BY。通常子查询引用主表的一个列名,即子查询在主表的一行(当前行)上执行,这称为外引用(outer reference)。 例如,查询销售办公室的目标值大于其所有销售代表完成的销量之和: SELECT City FROM Offices WHERE Target > ??? ??? 表示其所有销售代表完成的销量之和: SELECT SUM(Quota) FROM SalesReps WHERE RepOffice = OfficeNbr 组合后得到完整查询: SELECT City FROM Offices WHERE Target > (SELECT SUM(Quota) FROM SalesReps WHERE RepOffice = OfficeNbr) http://www.mysqlperformanceblog.com/2007/08/28/to-sql_calc_found_rows-or-not-to-sql_calc_found_rows/ http://dev.mysql.com/doc/refman/5.0/en/information-functions.html https://dev.mysql.com/doc/refman/5.7/en/join.html Official MySQL documentation
工程材料/青铜 青铜原指铜锡合金,但工业上都习惯称含铝、硅、铅、铍、锰等的铜基合金为青铜,所以青铜实际上包括有锡青铜、铝青铜、铍青铜等。 注意,在某些情况下青铜可能特指锡青铜,您应当加以辨别。 青铜也可分为压力加工青铜(以青铜加工产品的形式供应)和铸造青铜两类。 青铜的牌号 青铜的牌号为“Q+主加合金元素符号+ 主加合金元素含量+ 其它元素含量”,其中,Q为汉字青的拼音首字母。 例如,QSn4-3表示主加元素为Sn,Sn的含量为4%,Zn的含量为3%,其它为Cu的锡青铜。
Asterisk权威指南/序 “有不止一种方式可以做到。”我跟Asterisk打交道已经九年了,随着不断发布的版本、新增的特性以及越来越多的人在用这个难以置信的工具解决各种通讯问题,这句话越来越正确。我有幸作为Asterisk项目的社区经理在Digium工作了两年,这段经历使我看到世界范围的开发力量推动了Asterisk向前发展。Asterisk的深度和广度是惊人的,部署支持几十万用户的系统是很平常的事。我看见Asterisk已经深入渗透到金融、军事、医疗、财富100强、服务供应商、电话卡以及移动环境等市场。实际上我敢说,任何一个领域,如果需要一个通用语音工具来完成某项任务,Asterisk就是一个缺省的选择。 Asterisk已经成为了开源软件改变商业世界的典型。在任何介绍Asterisk的会议中,我最喜欢的部分就是回答初学者的问题。当我不断地说“是的,它能做到”时,我看见人们的眼睛越张越大。于是,人们开始很高兴地设想一些他们的电话系统或通讯系统无法完成的一些事情。无线电集成?当然。在呼入或呼出电话中播放MP3?可以。把电话会议的录音发给与会者?没问题。把语音服务集成到现有Java应用程序中?简单。即时通讯?语音导航?视频?可以,可以,可以,可以。 随着连续不断的肯定答复,接下来,最棒的事情莫过于邀请提问者坐下来,开始向他演示Asterisk是如何快速部署和配置的。然后,我会向他推荐《Asterisk: 电话的未来》(《Asterisk:The Future of Telephony》)。使用Asterisk,在很短的时间内公司就能改变他们向客户提供产品的方式,非盈利性组织可以翻新他们的服务形态,个人可以为他们的座机或手机定制一个呼叫处理系统。Asterisk可以连几条线部署在家里, 也可以是一个跨越洲际的多服务器系统,但所有这些都要从安装软件包、打开几个配置文件和学习范例开始。 从1999年Mark Spencer开发的一个基本PBX开始,Asterisk在几千名开发者的帮助下,已经从一个简单的连接电话呼叫的系统变成了一个可以处理语音、视频和文本的平台,可以连接多种虚拟或物理设备类型。Asterisk的诞生和成长得益于专有硬件的四个掘墓者:开源运动、因特网、摩尔定律和通信成本的直线下降。甚至那些和Asterisk有竞争冲突的硬件供应商,也已经在他们的实验室和核心网络中使用Asterisk了:几乎所有的VoIP设备都要和Asterisk做测试,以保证其兼容性。 在我最近出席的一次通讯会议上,“谁在使用Asterisk?”这个问题被提出,现场差不多75%的人举起了他们的手。Asterisk是一个成熟、稳定的软件平台,几乎已经渗透到通讯产业的每一个领域,使得它成为了开源服务系统的一个重要组件。我建议,任何同时需要Web和语音服务的系统,可以考虑在LAMP中加多一个A, 变成LAAMP。(其实我觉得LAMA-P也是一个不错的选择,但不知道为什么没人喜欢,嘻嘻) 这个版本补充了很多范例,这是我盼望已久的事情。Asterisk的便利性在于初学者可以很容易地理解其基本概念。当初学者掌握了基本内容,开始尝试多种方式完成同一件事情时,本书会介绍如何使用Java、Perl或Python编写AGI程序,甚至定制Application。但对任何人来说,不管他的技能水平如何,第一步都是看其他人写的基本Application的范例。 作者不仅给出了Asterisk的方法纲要,还为初学者甚至专家提供了很多优秀范例,使得可以快速掌握新技术。 Asterisk 1.x系列非常强大,几乎可以解决你的所有语音问题。对于那些想要更复杂特性的人们来说,要知道还有很多有趣的特性正在开发中。如果你是第一次使用Asterisk,我要欢迎你来到这个由用户和开发者组成的社区大家庭。这本书可以把你从新手变成老手。如果你是一个有经验的Asterisk开发者或继承者,我相信这本书也能给你带来惊喜,“哦,原来还可以这样做”。 建议你加入邮件列表,IRC在线聊天室,和AstriCon年度会议,以便了解最新信息。没有你的兴趣、付出和编码,Asterisk将不复存在。开源项目欢迎新颖的想法和卓越的贡献:我希望你参与到Asterisk社区中来,也希望能在这本书的下一个版本中看到你的问题和范例。
生物信息学/高通量测序数据的质量控制 从测序公司拿到的454测序数据是SFF格式文件。该文件是二进制格式文件。可以使 用命令sffinfo来查看SFF文件的内容或转换成Fasta文件;可以使用sfffile对SFF文件进 行合并或分割。 由于454测序基本退出了测序舞台,因此本教程就不对454测序数据作详细解读。只 需要了解以下2点: 1.454测序结果文件为SFF格式,使用sffinfo来转换出fasta文件; 2.使用Newbler软件能对纯454数据进行基因组组装。 一般使用Newbler对纯454测序数据进行基因组组装。由于软件在组装前能进行数据 质控,因此,不需要另外进行质量控制。若使用其它软件如Velvet利用到454测序数据,则可以使用sffinfo将SFF文件转换成Fasta格式。默认情况下,使用sffinfo将SFF文件转换成Fasta格式时,则会对数据进行一些trim。命令简单用法见下一章Newbler基因组 组装软件的使用。 一般情况下,我们从测序公司得到Illumina测序数据,其数据文件是Fastq格式。可以 称之为原始数据(Raw data)。 实际上,Illumina测序得到的Raw data其实是显微拍摄得到的图片信息。但公司会利 用Bcl2Fastq软件将图像信息转换成Fastq文件。由于在测序开始前,先要进行退火步骤将 引物结合到模板DNA上,然后从引物之后的Index标记序列开始测序,再继续测adapter 序列和插入的DNA片段序列。因此,Bcl2Fastq软件会先根据最开始的Index标记序列进 行数据分样处理,再去除adapter序列,最后给出Raw data的Fastq文件。理论上,从测 序公司得到的Raw‘data数据是不含有adapter序列的。但实际上,Raw data中依然会有 部分数据含有adapter序列。 若进行单端测序,则数据结果只有一个Fastq文件;若进行双端测序,则结果得到两个Fastq文件。双端测序的2个Fastq文件特点: (1) 一般情况下,两个Fastq文件名称中分 别包含数字1和2,分别代表先后测序所得到的reads数据; (2)这2个文件的行数必须一 致; (3)在这2个文件相同行上的数据来自同一条DNA片段双末端的测序数据; (4) Fastq文件中每4行表示一条read序列。
高中化学/目录/元素性质递变规律 在元素周期表中,随着核电荷数的增加,同主族元素从上到下原子核外电子层数依次增多,学科交叉原子核对最外层电子的引力逐渐减弱,原子半径逐渐增大,失电子能力逐渐增强,得电子能力逐渐减弱。所以,金属性逐渐增强,非金属性逐渐减弱。 碱金属元素原子的最外层都有1个电子,它们的化学性质相似,都能与氧气等非金属单质反应生成氧化物,以及与水反应生成碱和氧气。 比较氧化强弱的方法: 1.金属与盐溶液的置换反应可以比较金属还原性的强弱,卤素间的置换反应比较出卤素氧化性的强弱。 2.元素金属性强弱:单质与水(或酸)反应置换出氢的难易程度、最高价氧化物的水化物氢氧化物的碱性强弱;元素的非金属性强弱:最高价氧化物的水化物的酸性强弱、与氢气生成气态氢化物的难易程度以及氢化物的稳定性。 3.阳离子的氧化性强弱和阴离子的还原性强弱。 元素的金属性与非金属性之间并没有严格的界线,位于分界线附近的元素既能表现出一定的金属性,又能表现出一定的非金属性。
工程材料/锡青铜 以锡为主要合金元素的铜基合金称锡青铜。如QSn6.5-0.1 锡青铜的特点 锡青铜的铸造收缩率很小,可铸造形状复杂的零件。 锡青铜在大气、海水、淡水以及蒸气中的抗蚀性比纯铜和黄铜好,但在盐酸、硫酸和氨水中的抗蚀性较差。 锡青铜在造船、化工、机械、仪表等工业中广泛应用,主要制造轴承、轴套等耐磨零件和弹簧等弹性元件,以及抗蚀、抗磁零件等。
Asterisk权威指南 序 前言 第一章 一场电话革命 点燃你的兴趣之火。欢迎来到Asterisk! 第二章 Asterisk架构 讨论Asterisk系统的文件结构。 第三章 安装Asterisk 获取、编译和安装Asterisk。 第四章 初始化配置任务 描述新安装的Asterisk系统所需要的一些初始配置任务。这一章把Asterisk(不管何种用途)所需的基本配置文件过了一遍。 第五章 用户设备配置 指导如何配置电话等设备连接到Asterisk并实现呼叫。 第六章 拨号计划基础 介绍Asterisk的核心,拨号计划。 第七章 外部连通性 讨论如何配置Asterisk以连接到其他系统,例如其他Asterisk服务器,Internet电话服务供应商,或者传统电话网络。 第八章 语音信箱 讨论Asterisk最受欢迎的特性之一——语音信箱——的用法。 第九章 国际化 讨论将Asterisk部署到北美以外地区的相关问题。 第十章 深入拨号计划 涉及拨号计划的高级概念。 第十一章 保持和转移 介绍Asterisk广受欢迎的两个特性——呼叫保持和呼叫转移。 第十二章 Internet呼叫路由选择 讨论Internet不同管理域之间的呼叫路由选择。 第十三章 自动呼叫分配(ACD)队列 讨论如何在Asterisk中建立呼叫队列。 第十四章 设备状态 介绍设备状态的概念,以及如何将其用作在线指示器。 第十五章 自动接待 介绍如何使用拨号计划构建语音菜单。 第十六章 关系数据库集成 讨论Asterisk和数据库集成的各种方式。 第十七章 交互式语音应答(IVR) 讨论如何使用Asterisk构建响应呼叫者输入的应用程序。 第十八章 外部服务 讨论如何连接外部服务,诸如LDAP、日历、IMAP,XMPP,Skype,TTS等。 第十九章 传真 讨论使用Asterisk接收和发送传真的各种选项。 第二十章 Asterisk管理接口 介绍监视和控制Asterisk系统的网络接口。 第二十一章 Asterisk网管接口 介绍用编程语言实现呼叫控制的Asterisk接口。 第二十二章 集群 介绍当需求超过一台服务器的容量时,如果配置多台服务器的集群。 第二十三章 分布式统一号码发现(DUNDi) 介绍Asterisk内置的P2P协议,用于呼叫路由选择。 第二十四章 系统监视和日志 介绍Asterisk系统的监视和日志接口。 第二十五章 Web接口 讨论Asterisk的Web接口。 第二十六章 安全 讨论Asterisk管理员应该关注的常见安全问题。 第二十七章 Asterisk:电话的未来 最后,我们展望开源电话领域的未来。 附录A 理解电话技术 讨论传统电话网络用到的技术。这些内容曾经是本书老版本中的一章。尽管和Asterisk没有直接的关系,我们认为这些内容会对一些读者有用,所以我们把它放在附录中。 附录B VoIP协议 讨论VoIP的各种特性。也是老版本中的一章。 附录C 为Asterisk准备一个系统 讨论一些在部署Asterisk时需要考虑的问题。
生物信息学/FastQC 质量控制的真正主力 FastQC 可能是高通量基因组学最常用的软件。 它是一个 Java 程序,应该作为命令行工具安装。 FastQC 的主页:<http://www.bioinformatics.babraham.ac.uk/projects/fastqc/>。此页面有 FastQC的下载地址和对软件的一些简单说明。 FastQC能在Java下以图形化界面运行;也能在命令行下运行,得到网页版的结果。 该软件能在Windows、Linux或Mac上运行。FastQC能很好检测NGS数据的好坏,但是不能进行reads的过滤和修剪。 brew install fastqc conda install -y fastqc cd ~/src curl -O http://www.bioinformatics.babraham.ac.uk/projects/fastqc/fastqc_v0.11.5.zip unzip fastqc_v0.11.5.zip # Link the fastqc executable to the ~/bin folder that # you have already added to the path. ln -sf ~/src/FastQC/fastqc ~/bin/fastqc # Due to what seems a packaging error # the executable flag on the fastqc program is not set. # We need to set it ourselves. chmod +x ~/bin/fastqc 可以将FastQC软件安装到/opt/biosoft/目录下。 $ sudo mkdir -p /opt/biosoft $ sudo chmod 1777 /opt/ /opt/biosoft/ ## Download and install fastqc cd ~/biosoft mkdir fastqc && cd fastqc wget http://www.bioinformatics.bbsrc.ac.uk/projects/fastqc/fastqc_v0.11.5.zip $ wget http://www.bioinformatics.babraham.ac.uk/projects/fastqc/fastqc_v0.11.3.zip $ unzip fastqc_v0.11.3.zip -d /opt/biosoft/ $ chmod 755 /opt/biosoft/FastQC/fastqc $ echo 'PATH=$PATH:/opt/biosoft/FastQC/' >> ~/.bashrc $ source ~/.bashrc $ ./fastqc --help –help参数能在屏幕上(标准输出)打印出FastQC的帮助文档。 fastqc -h 运行 --nogroup 选项以关闭binning(仅针对短read操作!): fastqc --nogroup data.fq FastQC/Configuration 目录包含许多感兴趣的文件,可以根据需要进行自定义。 ls ~/src/FastQC/Configuration/ 输出结果: adapter_list.txt contaminant_list.txt limits.tx 可以编辑和添加污染物或接头,然后使用 --adapteror --contaminant 选项运行 fastqc。 在Windows中双击可执行程序run_fastqc.bat,或在Linux中运行可执行程序fastqc, 则弹出图形化界面,在File下拉菜单中open 一个文件,即可对该文件的NGS数据进行质 量分析。 http://www.bioinformatics.babraham.ac.uk/projects/fastqc/good_sequence_short_fastqc.html http://www.bioinformatics.babraham.ac.uk/projects/fastqc/bad_sequence_fastqc.html http://www.bioinformatics.babraham.ac.uk/projects/fastqc/RNA-Seq_fastqc.html http://www.bioinformatics.babraham.ac.uk/projects/fastqc/small_rna_fastqc.html http://www.bioinformatics.babraham.ac.uk/projects/fastqc/RRBS_fastqc.html http://www.bioinformatics.babraham.ac.uk/projects/fastqc/pacbio_srr075104_fastqc.html http://www.bioinformatics.babraham.ac.uk/projects/fastqc/454_SRR073599_fastqc.html FastQC的输入文件为FastQ、SAM或BAM格式文件。默认情况下,FastQC会猜测输入的文件类型,以.sam或.bam结尾的文件以SAM/BAM文件打开,其它的文件都以 FastQ文件打开。 点击File,从下拉菜单中选择Save report,将结果保存为一个压缩文件,该压缩文件 中有相应的html文件和一些图形结果,适用于web中浏览。 FastQC使用多个分析模块,得到了相应的结果,这些结果表示的意义,详细的说明见:http://www.bioinformatics.babraham.ac.uk/proiects/fastac/Help/3 Analvsis Modules/。以下是这些结果的详细讲解: Basic statistics基础的统计信息,有文件名、文件类型(常用的碱基或 colorspace数据)、总序列数、在Casava模式下运行时过滤的序列数、序列长度(给出最短和最长的序列长度,若是所有序列长度一致,则只给出一个值)和 所有序列总的GC含量。该项的统计结果永远是PASS。 Per base sequence scores以盒形图的方式,给出了序列中每个位点对应的碱 基质量分布。x轴是read中的位点,y轴是碱基质量;盒形图中中间的红线表示 median value;黄色的部分代表inter-quartile区域(25-75%);上下分割线代表 10%和90% points;蓝色的线代表平均质量。如果有碱基位点的lower quartile (下四分位数)低于10,或者media值低于 25,则该项统计结果为Warning;如果有碱基位点的lower quartile (下四分位数)低于5,或者media值低于20,则该项统计结果为Failure。 Per sequence quality scores统计序列平均质量的频数。x轴是平均碱基质量值,y轴是平均碱基质量值对应的reads数。如果频数最大的平均碱基质量值低于27,则统计结果为Warning;如果频数最大 的平均碱基质量值低于20,则统计结果为Failure。 Per base sequence content统计序列每个位点的碱基(GATC)含量。如果有位点的A和T、或者G和C的含量差异髙于10%,则统计结果为 Warning;如果有位点的A和T、或者G和C的含量差异高于20%,则统计结 果为 Failure。 Per base GC content统计序列每个位点的GC含量。如果有位点的GC含量和平均的GC含量相差5%,则统计结果为Warning;如 果有位点的GC含量和平均的GC含量相差10%,则统计结果为Failure。 6) Per Sequence GC content统计每个序列的GC含量的频数。图中红色线是实际的值,蓝色线为理论分布(正态分布)。正常情况下,则红色线条是平滑的,峰值位点对应着总体的GC含量;而如果有其它的峰,则表示可能有其它 contaminated library or some other kinds of biased subset。将红色线条的值和蓝色线条的值相比得到偏差值,所有位点偏差总和如果超出所 有reads的15%,则统计结果为Warning;如果超出30%,则统计结果为 Failure。 Per base N content每个位点的N含量。如果有位点的N含量> 5%,则统计结果为Warning; >20%,则统计结果为 Failure。 Sequence length distribution 序列长度分布。如果所有的序列不是一样长度,则结果为Warning;如果有序列的长度为0,则结果为Failure。 Duplicate sequences统计重复序列的含量。图中x轴为reads重复的次数;y 轴为重复指次数对应的reads占unique reads的比例。序列重复表明enrichment bias (比如:测序过程中的PCR重复、转录组测序中某些基因表达量高)。序列重 复比例越高,则表明实际有用的序列越少。为了降低内存消耗,只对文件前 2000,000个reads(足够了)进行统计;对于长度长于75bp的reads,将其截短为.50bp,用于统计重复。统计结果图在最上方给出了序列重复水平值,代表着non-unique序列所占的比例。如果序列重复水平值>20%,则结果为Warning;若>50%,则结果为50%。 Overrepresented sequences 统计过表达的序列。某一条序列占总序列的 0.1%,则被鉴定为过表达序列,然后将这样的序列和其自带的数据库进行比对,报告出最佳的hit (至少20bp内没有mismatch)。和上一个Module —致,对文件前2000,000个reads(足够了)进行统计;对于长度长于75bp的reads,将其截短为50bp,用于统计分析。如果有任意一序列表现出过表达> 0.1% of the total,则结果为Warning;如果有任意一序列表现出过表达> 1% of the total,则结果为Failure。 Overrepresented Kmers 统计过表达的Kmers。默认下,Kmer长度为5,每个位点的碱基和其后面的4个碱基连在一起,为一个Kmer,统计该位点所有kmer 的种类和数目。并最后画图给出6个过表达的Kmers在不同位点的富集状况。 如果在任意一 K-mer总体上富集3倍以上,或在任意一位点富集5倍以上,则结果为Warning;如果在任意一 K-mer在任意一位点富集10倍以上,则结果为 Failure。 FastQC的常用参数: --help 打印fastqc的帮助信息 -0/--outdir 将输出文件放入到此文件夹中。此文件夹一定要存在或先建立此文件夹,否则不会生成结果文件。 若不设置此参数,默认将结果输出到输入文件所在的文件夹中。. -j / --java 指定java的路径,否则java命令存在于系统环境变量PATH中。 -f / --format 强制指定输入文件的格式。有效的格式为:bam, sam, bam_mapped, sam_mapped和fastq。 -t/--threads 并行计算的最大任务数 FastQC运行示例: $ /opt/biosoft/FastQC/fastqc seqfileV seqfile2 ... seqfileN $ /opt/biosoft/FastQC/fastqc -t 4 -o ./ reads1.fastq reads2.fastq reads3.fastq reads4.fastq 默认设置下,FastQC生成一个后缀为_fastqc的文件夹,该文件夹中包含两种结果文 件:以txt为后缀的文本型结果,和以html为后缀的网页型结果。 在命令行下运行FastQC与图形化界面相比,可以设置很多的参数,比如设置多线程运 行和Kmer大小等。命令行最大的优势就是多任务并行运行,对多个fastq文件同时进行分 析,而图形化界面则不行;当然,开多个图形化界面同时运行也是可以的。图形化界面的优 势是直接方便,但是有时候图形化界面给人不流畅的感觉。 1) 最简单的方式是直接使用firefox进行浏览,命令如下: $ firefox result_fastqc/fastqc_report.html 局限性在于:只有数据存储于本地电脑中,才能正常使用firefox进行浏览。若结 果在远程服务器中,则使用下一种方法更加方便。 2)搭建www服务器用于网页版结果的查看。 $ sudo su - # setup 选择开机即启动http服务 # /etc/init.d/httpd status httpd己停 # /etc/init.d/httpd start 正在启动httpd: [失败] # setenforce 0 #/etc/init.d/httpd start 正在启动httpd: [确定] # vim /etc/sysconfig/iptables -A INPUT -m state --state NEW -m tcp -p tcp --dport 80 -j ACCEPT # /etc/init.d/iptables restart # vim /etc/httpd/conf/httpd.conf #在此文件末尾添加如下内容 Alias /public "/home/public/" <Directory "/home/public/"> Options Indexes MultiViews FollowSymLinks AllowOverride None Order allow,deny Allow from all </Directory> # /etc/init.d/httpd restart #然后,重启httpd服务 # mkdir /home/public # chmod 1777 /home/public # usermod -aG userGroupName apache # chmod 755 /home/user $ ln -s $PWD/ /home/public $ IP=`ifconfig | perl -n -e 'print $1 if /inet addr:(\d+\.\d+V.\d+\.\d+) P-t-P/'` $ echo "firefox $IP/public" | sh $ mkdir /home/train/02.sequencing_data_quality_control/ $ cd /home/train/02.sequencing_data_quality_control/ $ mkdir FastQC $ cd FastQC $ mkdir raw_data $ /opt/biosoft/FastQC/fastqc -t 4 -o ./raw—data ~/00.incipient_data/data_for_gen*/*.fastq $ firefox http://127.0.0.1/train/02.sequencing_data_quality_control/raw_data/
C++/random random为随机数库的头文件,提供产生随机数与伪随机数的类。 均匀随机比特生成器(Uniform random bit generator,URBG),产生均匀分布的整数的序列:包括: 随机数引擎(random number engine):产生伪随机的均匀分布的整数的序列 linear_congruential_engine 类模板: 线性同余算法 mersenne_twister_engine 类模板: 梅森旋转算法 subtract_with_carry_engine 类模板:带进位减法的滞后斐波那契随机数算法 真随机数引擎,如果有的话 随机数分布(Distributions),如均匀分布、正态分布、泊松分布,即把均匀分布的随机数转为不同的统计分布。 随机数引擎适配器使用基础随机数引擎产生伪随机数,通常用于改变谱特性: discard_block_engine 类模板:抛弃随机数引擎的一些输出 independent_bits_engine 类模板:把随机数引擎的输出包装为特定比特数的块 shuffle_order_engine 类模板:把随机数引擎的输出按照不同的序递交 示例: std::default_random_engine generator; std::uniform_int_distribution<int> distribution(1,6); int dice_roll = distribution(generator); // generates number in the range 1..6 //Code copied from https://codereview.stackexchange.com/questions/109260/seed-stdmt19937-from-stdrandom-device std::vector<uint32_t> random_data(624); std::random_device source; std::generate(random_data.begin(), random_data.end(), std::ref(source)); std::seed_seq seeds(random_data.begin(), random_data.end()); std::mt19937 engine(seeds); //Or: //std::mt19937_64 engine(seeds); using mt_engine = std::mersenne_twister_engine</*...*/>; constexpr size_t state_size = mt_engine::state_size * mt_engine::word_size / 32; std::vector<uint32_t> random_data(state_size); minstd_rand0: std::linear_congruential_engine<std::uint_fast32_t, 16807, 0, 2147483647>。1969由Lewis, Goodman与Miller提出,1988年被Park与Miller称作"Minimal standard" minstd_rand: std::linear_congruential_engine<std::uint_fast32_t, 48271, 0, 2147483647>。更新的"Minimum standard"。1993年由Park, Miller与Stockmeyer提出。 mt19937:std::mersenne_twister_engine<std::uint_fast32_t, 32, 624, 397, 31,0x9908b0df, 11,0xffffffff, 7,0x9d2c5680, 15,0xefc60000, 18, 1812433253>。32比特梅森旋转法,1998年由Matsumoto与Nishimura mt19937_64:std::mersenne_twister_engine<std::uint_fast64_t, 64, 312, 156, 31,0xb5026f5aa96619e9, 29,0x5555555555555555, 17,0x71d67fffeda60000, 37,0xfff7eee000000000, 43, 6364136223846793005>。2000年由Matsumoto与Nishimura提出的64比特梅森旋转法。 ranlux24_base:std::subtract_with_carry_engine<std::uint_fast32_t, 24, 10, 24> ranlux48_base:std::subtract_with_carry_engine<std::uint_fast64_t, 48, 5, 12> ranlux24:std::discard_block_engine<std::ranlux24_base, 223, 23>。24比特RANLUX生成器,1994年由Martin Lüscher与Fred James ranlux48:std::discard_block_engine<std::ranlux48_base, 389, 11>。48比特RANLUX生成器,1994年由Martin Lüscher与Fred James knuth_b:std::shuffle_order_engine<std::minstd_rand0, 256>。 default_random_engine:由实现定义。可能是std::mt19937的别名。 std::random_device:由硬件熵源。但如果没有真随机数发生器,也可以用伪随机数代替。Visual C++编译器保证产生密码级安全的伪随机数。 均匀分布 uniform_int_distribution类模板 uniform_real_distribution类模板 伯努利分布 bernoulli_distribution类 binomial_distribution类模板 negative_binomial_distribution类模板 geometric_distribution类模板 泊松分布 poisson_distribution类模板 exponential_distribution类模板 gamma_distribution类模板 weibull_distribution类模板 extreme_value_distribution类模板 正态分布 normal_distribution类模板 lognormal_distribution类模板 chi_squared_distribution类模板 cauchy_distribution类模板 fisher_f_distribution类模板 student_t_distribution类模板 采样分布 discrete_distribution类模板 piecewise_constant_distribution类模板 piecewise_linear_distribution类模板 工具 generate_canonical函数模板:在[0, 1)中给定精度均匀分布 seed_seq类:通用无偏种子序列生成器。消耗构造时传入的一个序列的整数值,产生32比特均匀分布的一个整数值。用于给多个随机数引擎作种子或者一个随机数引擎需要多个种子。 不建议使用,定义在头文件<cstdlib> rand函数:产生伪随机数 srand函数:设置随机数种子 RAND_MAX宏常量:std::rand生成的最大可能值
MySQL/Language/Data manipulation INSERT INTO TableName (Column1, Column2, Column3) VALUES (value1, value2, value3) 按照列在表中的顺序插入一条记录: INSERT INTO TableName VALUES (value1, value2, value3) 插入两条记录: INSERT INTO TableName VALUES (value1, value2, value3), (value4, value5, value6) INSERT INTO antiques VALUES (21, 01, 'Ottoman', 200.00); INSERT INTO antiques (buyerid, sellerid, item) VALUES (01, 21, 'Ottoman'); 从其他表中抽取数据插入: INSERT INTO table1(field1, field2) SELECT field1, field2 FROM table2 INSERT INTO World_Events SELECT * FROM National_Events 性能提示: 插入很多行,建议用LOAD DATA INFILE 如果INSERT很慢且运行在索引非空表,增加变量bulk_insert_buffer_size的值 在大量插入前,你可以禁止keys LOCK表可以加快INSERT. UPDATE table SET field1 = newvalue1, field2 = newvalue2 WHERE criteria ORDER BY field LIMIT n 例子: UPDATE owner SET ownerfirstname = 'John' WHERE ownerid = (SELECT buyerid FROM antiques WHERE item = 'Bookcase'); UPDATE antiques SET price = 500.00 WHERE item = 'Chair'; UPDATE order SET discount=discount * 1.05 UPDATE tbl1 JOIN tbl2 ON tbl1.ID = tbl2.ID SET tbl1.col1 = tbl1.col1 + 1 WHERE tbl2.status='Active' UPDATE tbl SET names = REPLACE(names, 'aaa', 'zzz') UPDATE products_categories AS pc INNER JOIN products AS p ON pc.prod_id = p.id SET pc.prod_sequential_id = p.sequential_id UPDATE table_name SET col_name = REPLACE(col_name, 'host.domain.com', 'host2.domain.com') UPDATE posts SET deleted=True ORDER BY date LIMIT 1 使用ORDER BY可以在修改前先排序,然后只修改更定数量的行(LIMIT). 目前不可能对正在修改的表执行子查询。例如: mysql> UPDATE spip_auteurs SET pass = (SELECT pass FROM spip_auteurs WHERE login='paul') where login='admin'; ERROR 1093 (HY000): You can't specify target table 'spip_auteurs' for update in FROM clause 性能提示: UPDATE的速度依赖于多少个索引被修改。 锁表后UPDATE多行会更快。 REPLACE类似于INSERT,除了如果根据主键或者唯一索引,表中有老行与要新加入的行有同样的主键(或唯一索引), 则先删除这些老行。 从MySQL 5.5, "INSERT IGNORE" 或 "REPLACE IGNORE" 允许忽略掉主键重复错误。 DELETE [QUICK] FROM `table1` TRUNCATE [TABLE] `table1` 如果不用WHERE子句,则DELETE删除所有行。 大表可能很慢,特别是有很多index时。 如果表有很多索引,增大cache会使DELETE更快(key_buffer_size变量) TRUNCATE实际上做DROP然后CREATE table。 TRUNCATE不是事务安全,也不是锁安全。 DELETE会告诉你多少行删除;而TRUNCATE不会 DELET 30%以上的行之后, 应该紧接着OPTIMIZE TABLE InnoDB表带FOREIGN KEY约束, TRUNCATE同义DELETE. DELETE FROM `antiques` WHERE item = 'Ottoman' ORDER BY `id` LIMIT 1 删除前先排序,可以只删除给定的行。 http://dev.mysql.com/doc/refman/5.5/en/replace.html
工程材料/铝青铜 以铝为主要合金元素的铜合金称铝青铜。如QA119-4 铝青铜的耐蚀性优良,在大气、海水、碳酸及多有 大多数有机酸中的耐蚀性,均比黄铜和锡青铜高。 铝青铜的耐磨性亦比黄铜和锡青铜好。主要用于制造齿轮、轴套、蜗轮等在复杂条件下工作的高强度抗磨零件,以及弹簧和其它高耐蚀性弹性元件。
Ubuntu/Wine Wine是一个在x86、x86-64上容许类Unix操作系统在X Window System下运行Microsoft Windows程序的软件。另一方面,电脑程序员能经由Wine的程序库将视窗的程序转移至类Unix操作系统中运行。也有不少软件经过Wine测试后发布,比如Picasa,uTorrent,MediaCoder。 Wine能使如Photoshop等Windows应用软件,StarCraft等Windows游戏在Linux上有效运行。但并不是所有应用程序都能够通过Wine运行,Wine应用数据库收集了大量的应用兼容性报告。 http://appdb.winehq.org/ Wine不包含微软IE,Office等软件,这些软件需要额外安装。
生物信息学/trim galore 官网:http://www.bioinformatics.babraham.ac.uk/projects/trim_galore/ 参考文档:https://github.com/FelixKrueger/TrimGalore/blob/master/Docs/Trim_Galore_User_Guide.md conda install -y trim-galore cd ~/software wget https://github.com/FelixKrueger/TrimGalore/archive/0.6.2.tar.gz tar zxvf 0.6.2.tar.gz -C ~/software/ echo 'PATH=$PATH:~/software/TrimGalore-0.6.2/' >> ~/.bashrc source ~/.bashrc USAGE: trim_galore [options] <filename(s)> -h/--help 打印帮助信息并退出。 -v/--version 打印版本信息并退出。 -q/--quality <INT> 去除低质量的碱基和接头。对RRBS样本,第一轮先进行去除低质量碱基,第二轮去除接头。其他类型样本,这两步是一起进行。算法与BWA一样(提取所有质量值转换为数值;计算从序列所有索引到末端的部分和;切除和最小的索引代表的序列)。默认为20。 --phred33 Cutadapt使用 ASCII+33 质量值分数体系(Sanger/Illumina 1.9+ encoding)作为Phred scores来进行序列修剪。默认:ON --phred64 Cutadapt使用 ASCII+64 质量值分数体系(Illumina 1.5 encoding)作为Phred scores来进行序列修剪。可以从Fastqc的报告得到确定使用那种质量值体系。 --fastqc 质控完成后运行FastQC。 --fastqc_args "<ARGS>" 传递给FastQC的参数,如果需要传递的参数超过一个,使用 "arg1 arg2 etc."形式传递。一个示例:--fastqc_args "--nogroup --outdir /home/"。传递参数时,会自动调用 FastQC, --fastqc不需要再设置 -a/--adapter <STRING> 输入需要裁剪的adapter序列。如果不指定,Trim Galore会自动寻找可能性最高的平台对应的adapter,默认会从Illumina universal, Nextera transposase或Illuminasmall RNA adapter的三个平台中搜索最适合的,也可以直接使用参数指定这三种平台,即--illumina、--nextera和--small_rna。 如果在指定的第一个文件的前一百万个序列中未检测到adapter,或者在多个adapter序列之间没有关联,则Trim Galore默认为'--illumina'(默认是Illumina adapter, 否则“ --nextera”为默认值)。 单碱基也可以这样赋值:-a A{10}, 即-a AAAAAAAAAA -a2/--adapter2 <STRING> 针对paired-end文件read 2的接头序列,该选项需要和 '--paired' 一起使用。该选项需要设置好,如果被裁剪的是smallRNA,a2会自动设置成Illumina small RNA 5' adapter(GATCGTCGGACT)。 单碱基也可以这样赋值:-a2 A{10}, 即-a2 AAAAAAAAAAA --illumina 程序会裁剪read起始13bp是Illumian通用接头'AGATCGGAAGAGC'的序列,代替自动检测接头序列。 --nextera 程序会裁剪read起始12bp是Nextera adapter 'CTGTCTCTTATA'的序列,代替自动检测接头序列。 --small_rna 程序会裁剪read起始12bp是Illumina Small RNA 3' Adapter 'TGGAATTCTCGG'的序列,代替自动检测接头序列。设置--small_RNA接头也会将--length值降低到18bp。 如果smallRNA文库是配对末端,除非已明确定义-a2,否则a2将自动设置为Illumina samallRNA 5' adapter(GATCGTCGGACT)。 --consider_already_trimmed <INT> 在接头自动检测过程中,允许用户设置一个<INT> 阈值,来判断接头是否已被修剪。如果没有adapter序列超过该阈值, 不再执行额外的adapter修剪(从技术角度讲,相当于设置参数'-a X'来修剪adapter). 低质量值修剪会正常执行。默认:NOT SELECTED (运行自动检测接头程序)。 --max_length <INT> 高于此<INT> bp的read会被裁剪,仅建对smallRNA测序去除non-small RNA序列设置。 -s/--stringency <INT> 设定可以忍受的前后adapter重叠的碱基数,默认为1(非常苛刻)。即使一个碱基重叠也将修剪掉read的3'端,可以适当放宽,因为后一个adapter几乎不可能被测序仪读到。read. -e <ERROR RATE> 运行的最大错误率(错配数除以匹配区域的长度),默认为0.1 --gzip 将输出结果压缩为GZIP格式。 --dont_gzip 不压缩文件,会覆盖--gzip选项。 --length <INT> 保留read的最小长度,由于质量或接头修剪后序列长度小于设定值会被修剪。设置成'0'表示关闭该参数。默认:20bp。对于双末端read,两条序列必须都大于 <INT> 才符合要求(详见--paired)。如果只有双末端序列中只有一条长度太短,可以保存成单末端的read(详见 --retain_unpaired)。 --max_n COUNT read包含N的最大数,在双末端中,read中N数目超过此限制的一对read都会被去除。 --trim-n 去除read中的N,不用于RRBS模式。 -o/--output_dir <DIR> 指定输出目录。需要提前建立目录,否则运行会报错。 --no_report_file 不输出报告。 --suppress_warn 不输出 STDOUT 或 STDERR 信息。 --clip_R1 <int> 从read(双末端的read 1或单末端read) 5'端切除<int> bp碱基,对于5'端质量值差的read,或需要切除5'端的碱基的情况设置此参数。默认: OFF --clip_R2 <int> 从双末端的read2 5'端切除<int> bp碱基,对于双末端read 2 5'端质量值差的read,或需要切除5'端的碱基的情况设置此参数,只对双末端read生效。。对于双末端BS-Seq, 建议删除5'端前几个bp,因为末端修复反应可能产生低甲基化。请参考Bismark用户指南中的M-bias图部分。默认: OFF --three_prime_clip_R1 <int> 在去除Adaptor序列和低质量序列后,从read(双末端的read 1或单末端read) 3'端切除<int> bp碱基,对于3'端质量值差的read,或需要切除3'端的碱基的情况(这些序列与接头序列、质控无关)设置此参数。默认: OFF --three_prime_clip_R2 <int> 在去除Adaptor序列和低质量序列后,从双末端read 2 3'端切除<int> bp碱基,对于3'端质量值差的read,或需要切除3'端的碱基的情况(这些序列与接头序列、质控无关)设置此参数。默认: OFF --2colour/--nextseq INT 该选项激活Cutadapt的 '--nextseq-trim=3'CUTOFF',设置一个质量控制的阈值(一般使用 -q 设置), 但忽略G碱基的质量值。该参数适用于NextSeq和NovaSeq平台, 因为在这些平台中,没有任何信号值的见解被称为高质量G碱基。该参数与 '-q INT'的功能不同,注意区分。 --path_to_cutadapt </path/to/cutadapt> 指定Cutadapt软件的安装路径,如/my/home/cutadapt-1.7.1/bin/cutadapt,如果不指定,默认Cutadapt存在与系统环境变量PATH中。 --basename <PREFERRED_NAME> 输出文件的前缀名PREFERRED_NAME,单末端数据的输出名类似PREFERRED_NAME_trimmed.fq(.gz), 双末端数据的输出名类似PREFERRED_NAME_val_1.fq(.gz) 和 PREFERRED_NAME_val_2.fq(.gz) for paired-end data. --basename只针对1个文件(单末端)或2个文件(双末端)有效,不能用于过长的列表。 -j/--cores INT 用于质控的线程数 [默认: 1]。 需要安装Python 3和多线程压缩命令pigz(parallel gzip)。Trim Galore可以从Cutadapt命令的配置信息中获得这些信息(Cutadapt命令所在路径可从环境变量或--path_to_cutadapt参数中获得)。如果检测到Python 2,--cores参数设置为1。如果没有找到pigz命令,Trim Galore使用gzip命令压缩,gzip压缩会减慢多线程的速度(https://github.com/FelixKrueger/TrimGalore/issues/16#issuecomment-458557103 for more info)。 实际使用的线程数:如果安装了Python 3和pigz, --cores 2表示使用2个线程读取输入文件,2个线程输出结果,Cutadapter使用2个线程并占用额外的两个线程,最后Trim Galore使用1个线程,可以达到9个线程,大部分时间并不同时使用9个线程。双末端序列在输出时使用两倍的线程数,--cores 4表示:4 (read) + 4 (write) + 4 (Cutadapt) + 2 (extra Cutadapt) + 1 (Trim Galore) = 15。 # 其他参数 - 不使用adapter/质量值进行质控 --hardtrim5 <int> 切除5'端的指定的 <int> bp碱基序列,一旦完成,Trim Galore会退出。输出文件名类似 .<int>_5prime.fq(.gz)。使用示例: before: CCTAAGGAAACAAGTACACTCCACACATGCATAAAGGAAATCAAATGTTATTTTTAAGAAAATGGAAAAT --hardtrim5 20:CCTAAGGAAACAAGTACACT --hardtrim3 <int> 切除3'端的指定的 <int> bp碱基序列,一旦完成,Trim Galore会退出。输出文件名类似 .<int>_3prime.fq(.gz)。使用示例: before: CCTAAGGAAACAAGTACACTCCACACATGCATAAAGGAAATCAAATGTTATTTTTAAGAAAATGGAAAAT --hardtrim3 20:TTTTTAAGAAAATGGAAAAT --clock 该模式下,会使用Mouse Epigenetic Clock (Multi-tissue DNA methylation age predictor in mouse, Stubbs et al.,Genome Biology, 2017 18:68 https://doi.org/10.1186/s13059-017-1203-5)方法来修剪reads。 dual-UMI RRBS reads的格式如下: Read 1 5' UUUUUUUU CAGTA FFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFF TACTG UUUUUUUU 3' Read 2 3' UUUUUUUU GTCAT FFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFF ATGAC UUUUUUUU 5' UUUUUUUU是一个8-mer的UMI(unique molecular identifier),CAGTA是一个固定碱基序列,FFFFFFF...是RRBS片段测序得到的实际序列。Read 1 (R1)和Read 2 (R2)的UMI,以及fixed sequences (F1 or F2),写入read的ID,并从实际序列中去除。例如: R1: @HWI-D00436:407:CCAETANXX:1:1101:4105:1905 1:N:0: CGATGTTT ATCTAGTTCAGTACGGTGTTTTCGAATTAGAAAAATATGTATAGAGGAAATAGATATAAAGGCGTATTCGTTATTG R2: @HWI-D00436:407:CCAETANXX:1:1101:4105:1905 3:N:0: CGATGTTT CAATTTTGCAGTACAAAAATAATACCTCCTCTATTTATCCAAAATCACAAAAAACCACCCACTTAACTTTCCCTAA R1: @HWI-D00436:407:CCAETANXX:1:1101:4105:1905 1:N:0: CGATGTTT:R1:ATCTAGTT:R2:CAATTTTG:F1:CAGT:F2:CAGT CGGTGTTTTCGAATTAGAAAAATATGTATAGAGGAAATAGATATAAAGGCGTATTCGTTATTG R2: @HWI-D00436:407:CCAETANXX:1:1101:4105:1905 3:N:0: CGATGTTT:R1:ATCTAGTT:R2:CAATTTTG:F1:CAGT:F2:CAGT CAAAAATAATACCTCCTCTATTTATCCAAAATCACAAAAAACCACCCACTTAACTTTCCCTAA 结果写入.clock_UMI.R1.fq(.gz) 和 .clock_UMI.R2.fq(.gz)。如果需要切除read 3'端潜在可能包含UMI和fixed sequence大约15bp的序列,命令:trim_galore --paired --three_prime_clip_R1 15 --three_prime_clip_R2 15 *.clock_UMI.R1.fq.gz *.clock_UMI.R2.fq.gz 使用Bismark进行比对,UmiBam的'--dual_index'来去除重复 (https://github.com/FelixKrueger/Umi-Grinder)。 UmiBam UMI R1:(ATCTAGTT);UMI R2:(CAATTTTG)。 --polyA 实验功能:识别并去除序列中的poly-A序列。设置该参数,软件自动识别包含'AAAAAAAAAA'或'TTTTTTTTTT'的read。对于双末端Read 1或单末端文件,去除PolyA或PolyT。对于双末端Read2,使用互补碱基进行修剪。默认使用A{20}对Read1进行3'端修剪,T{150}对Read2进行5'端进行修剪。这些参数可以通过-a和-a2修改。使用 _ 代替空格,修剪后的信息储存在read ID中,用于后续识别PolyA修剪过的序列。在read ID前后分别添加"32:A:"和"_PolyA:32"标签,例如: @READ-ID:1:1102:22039:36996 1:N:0:CCTAATCC GCCTAAGGAAACAAGTACACTCCACACATGCATAAAGGAAATCAAATGTTATTTTTAAGAAAATGGAAAATAAAAACTTTATAAACACCAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA @32:A:READ-ID:1:1102:22039:36996_1:N:0:CCTAATCC_PolyA:32 GCCTAAGGAAACAAGTACACTCCACACATGCATAAAGGAAATCAAATGTTATTTTTAAGAAAATGGAAAATAAAAACTTTATAAACACC 注意:在进行poly-A修剪之前,首先要进行adapter和质量值控制,建议的分析流程如下: 1) trim_galore file.fastq.gz 2) trim_galore --polyA file_trimmed.fq.gz 3) zcat file_trimmed_trimmed.fq.gz | grep -A 3 PolyA | grep -v ^-- > PolyA_trimmed.fastq 1) 第一步去除质量值和Illumina adapter的污染,2) 查找并去除PolyA污染,3) 如果需要的话,可以输出PolyA修剪的序列到特定的FastQ文件。 # RRBS选项 (针对MspI处理的样本): --rrbs 指定输入文件类型为MspI降解的RRBS样本(识别位点: CCGG)。 裁剪单末端或双末端Read 1序列3'端的2bp序列。经过低质量裁剪的read不再处理。双末端Read 2文库会额外从5'端的前2bp的碱基(通过 '--clip_r2 2'选项设置)。避免测序片段中靠近3' MspI位点填充的胞嘧啶位点对后续甲基化分析的影响。不使用NuGEN ovation RRBS System 1-16 kit处理的样本(说明见下文)。 --non_directional 针对non-directional RRBS文库设置,修剪以 'CAA' 或 'CGA' 开头的read,去除这类read的前两个碱基。消除末端修复反应中使用胞嘧啶位点对后续甲基化分析的影响(参考'--rrbs' 选项)。'--non_directional' 需要和 '--rrbs'一起使用,注意在双末端模式时,不要设置 '--clip_r2 2'。 --keep 保留修剪过程中的中间文件。默认: off。不设置此参数,这些中间文件会在软件运行完成后删除。只对RRBS样本有效。 对于使用NuGEN Ovation RRBS System 1-16 kit的RRBS:由于NuGEN Ovation kit在每个MspI位点后添加了可变长度(0-3)的核苷酸序列,该模式不需要设置 --rrbs。这一步的去除在后续步骤中进行(查看NuGEN Ovation kit的参考手册)。 MseI RRBS:使用MseI(识别位点:TTAA)代替MspI对DNA进行降解的数据,不需要设置 --rrbs 或 --non_directional,基本所有的序列都使用'TAA'开头, 'TAA' 限制性位点的末端修复反应不涉及任何胞嘧啶cytosines,因此不需要特殊处理,以标准模式运行即可。 双末端参数: --paired 指定输入文件是双末端测序序列(质量值/adapter/RRBS)。 双末端序列需要一个的最小长度作为阈值,通过 --length 选项指定。如果只有一个read长度达到阈值,参考 --retain_unpaired 选项,使用此参数去除较短的read对,不影响FastQ文件中的序列排序,对于双端测序结果,一对reads中,如果有一个被剔除,那么另一个会被同样修剪,而不管是否达到标准。许多比对软件对FastQ的顺序有要求。Trim Galore输出成对的文件名,如 file1_1.fq file1_2.fq SRR2_1.fq.gz SRR2_2.fq.gz ... . -t/--trim1 从每个read的3'端切除1bp。如果计划使用Bowtie1将FastQ文件作为双末端数据比对。需要设置此参数。 Bowtie (1) 比对如下图: R1 ---------------------------> R2 <--------------------------- # 或者: R1 -----------------------> R2 <----------------- 起始/终止位点包含在其他read中。 注意: 如果你计划使用Bowtie2, BWA 等,不需要设置此参数 --retain_unpaired 对于双端测序结果,一对reads中,如果一个read变得很短,较长的read会被单独保存以'.unpaired_1.fq'或'.unpaired_2.fq'为后缀名的文件内。长度的阈值通过 -r1/--length_1 和 -r2/--length_2。 默认:OFF -r1/--length_1 <INT> 保留Unpaired single-end read 1长度的阈值写入以'.unpaired_1.fq' 为后缀名的输出文件。这些序列可以以单末端形式比对到参考基因组上。默认: 35 bp. -r2/--length_2 <INT> 保留Unpaired single-end read 2长度的阈值写入以 '.unpaired_2.fq' 为后缀名的输出文件。这些序列可以以单末端形式比对到参考基因组上。默认: 35 bp. # 创建4.trim_galore的文件夹来存储修剪过的 mkdir ~/trim_galore/ # 切换到4.trim_galore的文件夹 cd ~/trim_galore/ # 将2.raw_fq目录下的fastq文件链接到4.trim_galore目录下 ln -s ~/raw_fq/*.fastq.gz ~/trim_galore/ # 使用for循环批量生成命令列表,并写入到trim_galore.command文件 for i in `ls *_1.fastq.gz` do i=${i/_1.fastq.gz/} echo "trim_galore --phred33 -q 20 --length 36 --stringency 3 --fastqc --paired -o ~/4.trim_galore ${i}_1.fastq.gz ${i}_2.fastq.gz" done > trim_galore.command # 完成fastq文件质量控制后,整合修剪后的质量报告 echo "multiqc ~/trim_galore/*zip -o ~/trim_galore/" >> trim_galore.command # 检查生成的命令列表是否正确 cat trim_galore.command # 批量运行质量控制 sh trim_galore.command # 查看生成的结果 ls -l ~/4.trim_galore/
Blender 3D︰從入門到精通/Animation Notes and FAQ This page is under heavy construction. It will probably not be edited better until early May 2012. If someone sends me information on how to convert a OpenOffice odt file to a wikidoc format, then it may be done sooner. Until then this will be quite a work in progress. See here. I found it quite cumbersome to find all of the little quirks, problems, and tricks in multiple sources whenever I would forget something. Therefore, I compiled all of the things I found important—primarily with character animation. Almost all the information here is consolidated from many sources. Some sources still need to be cited and any help on this would be much appreciated. For that reason I did not intend to make this public but I think there is enough need for this type of information so here it is. Just as a special aside, I made these notes to help myself with my animation project. Although I have organized them and posted them online for my and others benefit, I will not be dedicating any large amount of time to this website. All of my extra time needs to be allocated to the animation project. However, I do not mind suggestions and am willing to possible use them. I want to make sure that the viewer understands my time is very limited. There may be many typos or confusing areas of organization. I tried to organize the mess of notes as best as possible but I am sure there is an even better way. Feel free to fix any aspect of this. Any suggestions or comments feel free to e-mail me at wiki [at] pagodaproductions.com. See here. Q: I managed to create an acceptable walk cycle finally, now when I reopend the file to add additional animation, It keeps falling back to walk cycle, is their something i am doing wrong. Even after adding the LocRotScale key frame, it still ignores them, and goes back the corisponding frame for the walk. Ugggghhhh!!! Q: What is the best approach for rigging a character in Blender? Q: How do I attach a separate object to a bone? Q: When you try to scale the root bone of the armature(which scales the mesh), the bones move out of the natural placement causing unwanted positioning and distortion. Is there any way around this? Q: What is a pole vector? Q: How do I know that my armature is correctly positioned in global space in edit, object, and pose mode with proper bone rolls and axis pointing in proper directions? What are the best methods for building? And what axis is up Y or Z? Ctrl-C/Ctrl-V Trick One simple way to get the right name is to select the Lattice, go to F9, Link and Materials panel and where it says Ob:Lattice or Ob:Lattice.001 etc., move the mouse over this field and press Ctrl-C (don't click on it, just hover over it). This copies the Lattice name. Then select your object, go to the Lattice Modifier panel, hover the mouse over the Ob: field and press Ctrl-V to paste the name in. Now it should stay there and your Lattice should work in Edit Mode. H hides bones Alt+H shows all bones Shift+H hides everything except the chain Ctrl+I [Pose Mode] will automatically add an IK contraint M [Pose Mode] to move a bone to a bone-layer, select it in POSE mode then press "m" and click on the desired layer button. When the bone is selected, you can see which bone layer it is on in the Editing buttons / Selected Bones panel. Whichever of the 16 layer buttons is enabled is the layer the bone will be on. Shift+M [Pose Mode] You can use the hotkey SH-M to display a floating bone-layer panel in the 3d viewport. Select the armature, change to POSE mode, then change to the Buttons/Editing panel (F9). Under the Armature-Panel, Display Options SH-LMB the 8th button under the Display Options Bone-Layer buttons to enable it. Check out this by BlenderArtists.com. Alt-N normalize the bone orientation This can fix problems sometimes. Alt+P clears parent Alt+S [Pose Mode] in edit mode allows b-bones shape to scale visual changes without affecting the bones. W [Edit Mode] subdivides bones W [Pose Mode] will calculate paths to see how a bones movement is mapped out along a path or If you've named your bones correctly ( with .L and .R at the end of the name ) , you can flip the mirrored bone name by pressing "W" and "flip name" . A relevant post on BlenderArtsists.com is available here. Constraining IK or FK In the Armature Bones Panel is where you can limit the movement of the bone for IK and Limit Rotation Constraint for FK Customizing Frame Skipping Steps(F10 playback) allows for a customizable way of skipping frame in increments. Copying Constraints in pose mode 1. Select all bone(s) you wish to copy the constraints to, from a particular bone 2. Now, select the bone you wish to copy constraints from 3. Ctrl C --> Constraints (All) You can do CTRL-CKEY to copy stuff from a bone to bones. The options are location, rotation, scale and constraint. Constraint is very handy when you wan to copy a constraint to other bone. The way it works is easy. The WKEY menu get some neat options too: Select constraint target: Will select the target of the bone's constraint currently selected. Flip name: Yep, you can flip name in Posemode too. Calculate/Clear path: This is a visual way to see the action linked to your armature. You can select just some bones and ask Blender to show you the paths of the bones. It's possible to copy constraints from one object/bone to a bunch of objects/bones. A useful thing to know when doing a repetitive task like rigging all the fingers of a hand. Just select all bones/objects that you want to give a copy of the constraint, and then select the bone/object containing the constraints. Press CTRL-CKEY in 3DView, and select Object Constraints from the popup menu. The idea behind this is to copy the constraints of the active object to the selection. Rigging Q: What is the best approach for rigging a character in Blender? A: Apollux Honestly, I don't think that there is a golden set-up that will solve all your problems. For example, when I design a character rig I need to know beforehand what type of actions he will perform. If you want general pointers, I guess this would do: Allways set your rigs in a half relaxed fashion.. totally relax your hand for a few minutes and see the position of the palm and fingers, that is position you should model and rig-them on the 3D world. Same goes for mouth, legs, arms, etc. etc. etc. When in doubt over IK or FK always choose IK, since it is quite easy to switch a IK rig into FK when needed and then back to IK. Bone's axis orientation can't be an afterthought!! It is no coincidence that every self-respecting rigging tutorial for blender mention it... And don't trust blindly on the automatic axis orientation fix command (Ctrl-N), since it can introduce some odd solutions on complex armatures. Always check each bone by hand, even if Blender says they are fixed. Ultimate rig design is not the in-and-all of character animation. Sometimes I would spent crazy amounts of time preparing a rig for a special squence, and in the end realize that if I had used a simple FK rig tricked by hand during animation I would get the same results in half of the time and half the frustration. Not because it can be done means that it must be done. BlenderArtists post here. Item Pickup A good use of it is to ask a character to pick up something. By having a bone or empty for each side of the relationship (hand <-> glass), as the hand approaches the glass, you can align the two empties and fire the constraint up (1.00) to stick them together. You add another child-bone in the middle of the hand to tell where the glass will be. Thus moving the hand will move the glass. On the side of the glass just add an empty and make it parent of the glass. Add a copy location to the empty pointing to the bone in the hand we just did. There you go. Of course when the hand rotates the glass will not. For that you will need to add a Copy Rotation Constraint. Before Blender 2.40, the above method was a good way of faking parent relationship without rotation. But now we have the hinge option which does the same. Separate Object/Bone Attachment Q: How do I attach a separate object to a bone? A: To do that simply Ctrl-Tab into Pose Mode with the armature selected then select the object/mesh you want to parent to a bone then shift-select the bone you want to be the parent and Ctrl-P>"MakeParent to">Bone . Armature Scaling Problems Q: I have been trying to scale my character which has many similarities to the mancandy and ludwig rigs. However, when you try to scale the root bone of the armature(which scales the mesh), the bones move out of the natural placement causing unwanted positioning and distortion. Both the mancandy and ludwig rigs have this same problem. Is there any way around this? A: Why are you trying to scale the root bone (to scale the whole model)? Are you doing this in pose mode or object mode? If you are trying to scale the whole model try it in Object Mode. Also check if you are scaling around the cursor instead of median point Q: What is a pole vector? A: Vertex Pusher 2) Pole vector is actually a term used in Maya. It refers to the direction a bone is set to point towards in Maya rigging. For example, the direction you want the knees to point towards can be set using pole vectors. Apparently, Blender should be getting this feature soon . Right now you have to add target bones so that the knees will only bend one way (see Ryan Dale's BSoD tutorial), but with the option to use pole vectors you won't need to do this in the future . BlenderArtists post about bones. Bone Orientation Q: How do I know that my armature is correctly positioned in global space in edit, object, and pose mode with proper bone rolls and axis pointing in proper directions? What are the best methods for building? And what axis is up Y or Z? A: 1. Build up all the bones, as you did before. (Every foot, arm, etc. should be a bit bent, and drawn from the proper view.) 2. Select all these armatures, and with Ctrl-J join them into one armature. (Or with parent/child connection, as is necessary.) 3. Select this armature, go to "Editing" (F9), and then turn on "draw axes". Then you can see the axes of the bones. You will see, that the axes are different. Some bones has the Z-axis up, some has the Z-axis to the left, etc. 4. First you should tell Blender that this is the original position of your skeleton/model by pushing Ctrl-A. This is applying rotation. This means, that now all the rotations of the bones will be "0, 0, 0", so if you push later Alt-R (clear rotation), you will get this position. (Turn on numerical menu with N, to see what happens when you make this apply rotation command.) 5. Select the whole skeleton/model again. Go to edit mode. Then push A, to select all the bones. (They should be yellow now.) Then hit Ctrl-N, and you will see all the axises will be changed to stay on the same way. 6. That is, your skeleton now is ready to define the IK solvers, and then the skinning, and finally the animation. http://blenderartists.org/forum/showthread.php?t=25653 A: Vertex Pusher 4) Yes you should always add in top view[numpad 7]. An armature bone always has its axes set (Y is always up X side to side and Z depth) and you cannot change this like you can with mesh objects, so it seemingly won't matter which view you add a bone while in Edit Mode but in Object Mode your armature object will have a 90 degree rotation around the X axis (if you add it in front view) which can and usually does create problems down the road . If for some reason you want to add bones in front view simply start by adding the first armature bone in top view ad then switch to front view to add additional bones . You can just delete the first bone or rotate it while in Edit Mode . Blender's default views have the Z as the "up" axis while the armature system is coded with the Y as the "up" (like most 3D apps) When you rotate a bone in the front view, when the bone is aligned to that view and the Z is the up axis, you will give a roll value the bone because it is rotating perpendicular to its coded up axis ... this can cause you problems in some situations when you want a "neutral" roll value in Pose Mode... in most cases you'll want to recalculate the roll value with Ctrl-N (which will remove the visible rotation and insert a value in the "Roll:" field in the Transform Properties subwindow) and give it a non zero roll value in Edit Mode so that in Pose Mode it is properly aligned and rotated for poses and constraints ... You won't get that behavior if you rotate in either the top or side views if the bone is aligned to the view ... It's just that if you have the Y axis (the axis the bone rolls on) perpendicular to the Global Y axis then you will have to recalculate the bone roll angles to get it aligned properly for pose space . By "bone is aligned to the view" I mean what it is like when you first add a bone in a preset view, i.e. head at bottom and tip up at top in Edit Mode with no rotation applied . http://blenderartists.org/forum/showthread.php?t=110721 A: Fligh If you look at your left hand, palm down, from above, and assume for this exercise that all four fingers have their X-Axis pointing towards the thumb and have a Roll Angle of zero (same as if you created an Armature in Top View), but the thumb would need a Roll Angle of about 90. So if you rotate the first digit of the fingers around their Local X (R-XX) they would go down perpendicular to the back of the hand, but if you rotate the thumb (Roll Angle 90 and again around the Local X) it would go Left, towards the fingers. Ahh.... but who bothers to pose bones like that? You just grab the IK Target and move it!. Well the Transform Matrix is divided into four chunks (I think? I'm not sure of this but it helps to think of it [or look at it] this way and if you actually test it in Blender it works), Bone Space (the structure of the bone including Roll Angle), Armature Space (the structure of the Armature = the sum of all BoneSpace), Pose Space (transforms relative to Rest Position = recorded changes in BoneSpace within ArmatureSpace) and World Space (the sum of all the above relative to the (transforms of) the Armature Object. http://blenderartists.org/forum/showthread.php?t=102209 A: Fligh Anyhow, In Blender, In Top View (always add armatures in Top view) the Z-Axis is Facing you and Y is Up. So when you add the first Bone it lies along the Y-Axis. You cannot change that parallel-to-Y and any future Bones you extrude will use that bones axis as reference. If you add an Armature in Front view the bone's (local) Z-axis will point to the Global -Y (Y-Negative) and can lead to problems later on. http://blenderartists.org/forum/showthread.php?t=102609&highlight=bone+orientation A: Vertex Pusher Well I guess I may have a little something to contribute to this ... but I have been trying to learn the armature system in depth for the past few months and this particular issue came up with a complicated rig I was working with ... and I basically "discovered" that you really shouldn't have any other axis other than the Y as the "up" axis . And precisely because the bone roll angle issue . It seems that despite how the view ports are configured (with the Z as the "up" axis) the default "up" axis is the Y ... for everything ... This is a bit annoying but if you have, like me, configured Blender to start with the front view open and have the Transform Properties window always open, you will see that everything when created in the front view is actually rotated 90 degrees along the X axis once you tab into Object Mode and that you need to Ctrl-A all objects so created (I guess Blender "out of the box" has the top view open ? ... it's been a while so I can't remember ...) . This isn't all that important for most things but for the armature system this does create a problem - bone roll values that you don't want . Just as a simple test : Open up Blender and add an armature in the front view . Grab the tip and move it to a corner of the grid so that it is angled 45 degrees . Tab into Object mode . Open up the Transform Properties window . You will notice that your armature is rotated 90 degrees along the X axis . So ... Ctrl-A the armature to have it's "up" axis as Z ... And suddenly you will see the bone rotate along its roll axis . Tab back into Edit Mode, select the entire bone and Ctrl-N to recalculate the bone roll angles ... the bone will rotate back to the way it was ... but with a change in its roll value (-45 or 45 depending on which way it is angled) ... Now repeat the above but this time create the armature in top view ... And you will realize that despite being angle at 45 degrees to the view like above no roll value ... not even after recalculating the bone roll angles (Ctrl-N) ... Now I am assuming that this occurs because the Y axis is the one used to calculate the bone's roll ... and that if you have anything other than the Y as the "up" axis the roll values get screwed up because now the roll axis (Y) is tangent to the up axis instead of being the up axis . Just turn on "Draw Axes" and look at what the "up" axis is for an individual bone is ... the Y . And just another bit of proof ... The really great new "limit" constraints (loc,rot and scale) added in the last release ... Try and apply the limit rotation constraint to the first armature (the one with Z up and rotation applied) . Now turn LimitX on with no min or max values and do not turn on the "local" co-ordinate space ... it will fall flat along the Y axis as if created in the top view ... This is occurring because despite the fact that you have applied the 90 degree rotation along the X axis to the object, the constraint is enforcing the global up axis ... which is ... the Y . Now the only work around that I could come up with was to create an empty and parent a Y up armature to it then rotate the empty 90 degrees to be able to use the Z up view ports and also making sure the mesh also had the proper orientation as the armature . This prevents me from accidentally applying the rotation to the armature and I can use the numbpad hotkeys to navigate the views ... ... Else you could just clear the roll values manually if you insist on having the Z as the up axis ... though you won't be able to get rid of the rotation that is caused by being tangent to the Y axis without odd roll values ... Sorry for the long winded response, but this has been bugging me for a while ... Hopefully with the refactoring for v2.5 later this year there will be an option as to which axis will be the "up" axis with regards to the various views .. http://blenderartists.org/forum/showthread.php?t=93578 Armature Object is like any other object type: It has a center, a position, a rotation and a scale factor. It can be edited. It can be linked to other scenes, and the same armature data can be reused on multiple objects. All animation you do in object mode is only working on the object, not the armature's contents like bones. Link and Materials panel: The AR: field let you rename your armature Datablock. The dropdown is a quick way to select which Armature datablock you want to connect to this armature. You can keep more than one version for the same character. Useful when you have a special move to achieve in a shot, you can turn on an armature for a special purpose. The F button is an option to assign a Fake user to the Armature. Again if you have more than one armature for your character, it's a good idea to turn the Fake on, because if your armature datablock is not used (linked) it's not going to be saved in your .blend files. You can always do batch Fake-assignment of armatures by opening the Datablock browser (SHIFT-F4KEY), go in Armature datablock, select all the armatures you want to keep, and Press the FKEY. The OB: field is just to Rename your armature Object to something more cool and useful than Armature... Armature.001... Delay Deform: This was useful before as the old system was very slow. What it does is when you do a manipulation to the rig, it waits until you finish to update the view. Can still be useful though. Weight: This specifies how strongly this bone will influence the geometry around it, relative to the other bones. If two bones crossing each other, both with envelope influence, have the same weight (like 1:1) they will influence the surrounding geometry equally. But if you set one to 0.5, the geometry will be affected more significantly by the other one, with weight 1. For example, in this image, 2 bones using envelope influence try to move the same geometry. The 2 on the left have the same weight, you can see the geometry didn't move. On the right, one of the bones has 0.5 so the bone with weight 1 is winning the tug-of-war!: Deform: This lets you say if you want the bone to deform the geometry at all. Switching it off is like setting the weight to 0, except it's faster this way. Useful when using a bone as a target or a controller, i.e. a bone you just want to use to control other bones, but not the geometry itself. Mult: to deform geometry you can use vertex group and/or Envelope. The ability to mix both of these methods is handy for using one to tweak the other. For example, you might use envelope everywhere but tweak difficult places manually with vertex group. We'll discuss this in more detail later on. There are two number fields to better tweak the effect of B-Bones. The in/out is used to tell the scale of the virtual handle of the bezier curve. In is the Root of the bone, and Out is the Tip. The bigger the value, the bigger the effect of rotation. You can do ALT-SKEY on one or more bones while in Envelope display mode to tweak the envelope size in real time while animating. Useful when for example you move the hand and some part of the character isn't in the influence zone; the result will be that some vertices will stay behind. Tip: Bake envelope to vertex groups The workflow is very simple. When you are done with the envelope's tweaking and you have gotten the best out of it, delete the Armature modifier and parent the mesh to the armature(CTRL-PKEY). Parent it to "armature" when asked and "Create From Closest Bones". Do ALT-PKEY and redo the Armature modifier. Now all the envelope influence are converted to Vertex Groups. This way you can further tweak influence zone using Weight paint. More info in the following pages. You can edit this white zone in Editmode or posemode by going in Envelope display mode, selecting bones and using SKEY or ALT-SKEY The Mult option will tell Blender to multiply the weight it get from envelope (let say 0.7) with the weight you painted in weight paint (let say 0.5). The result will be 0.5*0.7=0.35 so in fact you just tweaked the envelope influence to 0.3 when it was at 0.7. If you don't want vertices to be part of the zone, you can always paint it with 0, as 0*(something) will always give 0. This way you can give custom shape to your envelope. More on weight paint on next page. Deform with only things weight painted Deform + Multiply with only things that are weight painted within the envelope radius Process: Make bones. Make good envelope transformations(including some overlap). Alt+P to make virtual parent(from nearest bones)this will already weight paint parts based on envelope influence "All faces" tells Blender if you want to paint on all faces in the mesh or just the visible one. "Vertex Dist" tell blender to use vertex distance instead of faces. When active, the painting will only check if the vertex is in the brush, then apply a weight value. If it's off, all vertice part of the faces in the brush will receive weight value. Turning on Vertex Dist can give good results when you have a lot of polys in your mesh. Constraints are calculated from first to last. So if you have two Constraints working on the same channel, let say Location, The last one will most probably win the chance to move the object. But... Most of the constraints have influence slider to tell how much it influence on the stack. If the last constraint have an influence of 0.5 it will mix the result with the one before. Most of the time this little constraint is useful to stick objects to one another. By playing with the Influence you can tell when it will work, when it will remain motionless. Ludwig's Stretchy Spine In the spine Ludwig model keep in mind the following things. The SpineStretch.null is necessary. It must be set to Hinge and Deform to keep the bones from scaling. IKSpine must have Deform turned off(none selected). Spine 4 or the last bone child in the chain(closest to the neck) must have Deform turned off(none selected). Scaling problem is usually tied(maybe always) tied to an improper child/parent relationship to a bone that is involved with stretching. Created a mirrored copy without using X-Axis Mirror select the bones that you want to mirror , put the 3D cursor at the center : And make shift + d , and directly , S , X , -1 ... Other Information You can extrude a new bone from the selection using EKEY. This will create a bone connected to the original one, meaning the Root of the new bone will follow the Tip of the original one. You can also CTRL-LMB to extrude a new bone. It will extrude to where you clicked. Alternatively, you can connect two existing bones by selecting them one after the other and pressing CTRL-PKEY. You can then choose either 'Connected' (the child bone - the one you selected second - will automatically be moved so that it touches the parent) or 'Keep offset'. aa Using the WKEY menu, You can subdivide your bone or flip the name of the bone between Left-Right (See Naming convention below). You can delete the bone with XKEY You can select a chain of bones (connected together) using LKEY, when you hover your mouse over a bone. In many cases, rigs are symmetrical and can be mirrored in half. In these cases, it is helpful to use a left-right naming convention. This is not only useful for your own sake, but it gives Blender a hint that there is a pair of equivalent bones, and enables the use of some very cool tools that will save you some significant work. It's helpful to name your bones with something useful telling you what it's there for, such as leg, arm, finger, back, foot, etc. If you get a bone that has a copy on the other side, however, like the arm (you have 2 arms right?), then the convention is to call them arm.Left and arm.Right. Other alternatives are also possible, like _L, _LEFT, _left, .L, and .Left. Anyway, when you rig try to keep this left-right thing as accurate as possible; it will pay off later on. You can copy a bone named blah.L and flip it over using WKEY --> flip name. So the bone will be blah.L.001 after you copy it, and flipping the name will give you blah.R. Blender handily detects if the .001 version already exists, and increments the number for you. Bassam's(slikdigit) Mancandy 1.0 http://freefactory.org/posts/candy-for-everyone Bassam's(slikdigit) Mancandy 2.0 One of the most complex rig I have available for Blender. It has lattice based stretching. http://freefactory.org/posts/candy-for-everyone Calvin's 05, 2017 This is an alternate foot roll method to Ludwig's rig. Calvin's handy02 Clean3D's Mouserig http://blenderartists.org/forum/showthread.php?t=79305 Cognis's AnimTest Interesting use of empty's as a bone. Daniel Martinez Lara's 3-plender leg This is a complex leg rig. It has many IPO driven bones. http://www.daniel3d.com/pepeland/misc/3dstuff/blender/rig/3-plender_leg_v0-1.zip Jason Pierce's(sketchy) Ludwig http://jasonpierce.animadillo.com/resource/ludwig/ludwig.html Kugyelka's Walkcycle Martin Georgiev's(Animarto) Walk_anim Master Yoda Michael Thoenes's Suzanne Rigged http://creationanimation.com/sites/thoenes/animation/3dtutorials.htm Nathaniel Shaw's Generi Noodlesgc's (Mike Roberts) W1r3z http://www.esnips.com/doc/276d8bd1-0070-4ee4-bd8c-e787b507d6a9/W1r3z.blend Nozzy's Driven hand http://blenderartists.org/forum/showthread.php?t=18754 Nozzy's Skinny Guy http://blenderartists.org/forum/showthread?t=30994 Otothecleaner's Flor Virgilio's Otto 1.6 Interesting constraint to keep the feet on the floor. http://uploader.polorix.net//files/99/otto_v1.6.zip Rbackman's Bounce9 Rbackman's Zeyne Simple's Character Tugkan's Sharlo Woodman5k's Bunny http://web.pdx.edu/~wlf/Bunny.rar Yagapayanata's Rig Yagapayanata's Rig(2, 4, 6 legs)
MySQL/Language/Alias 表达式与列可以使用AS定义别名。别名可用于ORDER BY, GROUP BY 或 HAVING子句,但不能用于WHERE 子句。例如: SELECT CONCAT(last_name,' ', first_name) AS full_name, nickname AS nick FROM mytable ORDER BY full_name 表名也可以有别名。可以使用或忽略AS关键字。 SELECT COUNT(B.Booking_ID), U.User_Location FROM Users U LEFT OUTER JOIN Bookings AS B ON U.User_ID = B.Rep_ID AND B.Project_ID = '10' GROUP BY (U.User_Location) 自连接(self join)时表名的别名非常重要。 SELECT p.name AS parent, c.name AS child, MIN((TO_DAYS(NOW())-TO_DAYS(c.dob))/365) AS minage FROM people AS p LEFT JOIN people AS c ON p.name=c.parent WHERE c.name IS NOT NULL GROUP BY parent HAVING minage > 50 ORDER BY p.dob;
工程材料/铍青铜 以铍为基本合金元素的铜合金(铍质量分数为1.7%~2.5%) 称铍青铜。如QBe2 铍青铜在淬火状态下塑性好,可进行冷变形和切削加工,制成零件经人工时效处理后,获得很高的强度和硬度:sb达1200MPa~1500MPa,硬度达350HB~400HB, 超过其它铜合金。 铍青铜主要用于制作精密仪器的重要弹簧和其它弹性元件,钟表齿轮,高速高压下工作的轴承及衬套等耐磨零件,以及电焊机电极、防爆工具、航海罗盘等重要机件。
Ubuntu/安装软件 Ubuntu软件中心是直观、便捷的安装软件方式。用户可以在Ubuntu软件中心搜索、分类索引或者察看推荐应用和最新应用。 首先更新包列表: sudo apt update 安装build-essential软件包 sudo apt install build-essential 添加非标准的工具链到系统 sudo apt install software-properties-common sudo add-apt-repository ppa:ubuntu-toolchain-r/test 安装最新的gcc与g++: sudo apt install gcc-10 g++-10 软件有多个版本,可配置多个: sudo update-alternatives --install /usr/bin/gcc gcc /usr/bin/gcc-9 90 --slave /usr/bin/g++ g++ /usr/bin/g++-9 sudo update-alternatives --install /usr/bin/gcc gcc /usr/bin/gcc-8 80 --slave /usr/bin/g++ g++ /usr/bin/g++-8 更改默认版本后交互选择: sudo update-alternatives --config gcc 安装最新版本的Python: sudo add-apt-repository ppa:deadsnakes/ppa sudo apt update sudo apt install python3.9
生物信息学/使用fastp进行数据质量控制 对数据自动进行全方位质控,生成人性化的报告 过滤功能(低质量,太短,太多N……); 对每一个序列的头部或尾部,计算滑动窗内的质量均值,并将均值较低的子序列进行切除(类似Trimmomatic的做法,但是快非常多); 全局剪裁 (在头/尾部,不影响去重),对于Illumina下机数据往往最后一到两个cycle需要这样处理; 去除接头污染。厉害的是,你不用输入接头序列,因为算法会自动识别接头序列并进行剪裁; 对于双端测序(PE)的数据,软件会自动查找每一对read的重叠区域,并对该重叠区域中不匹配的碱基对进行校正; 去除尾部的polyG。对于Illumina NextSeq/NovaSeq的测序数据,因为是两色法发光,polyG是常有的事,所以该特性对该两类测序平台默认打开; 对于PE数据中的overlap区间中不一致的碱基对,依据质量值进行校正; 可以对带分子标签(UMI)的数据进行预处理,不管UMI在插入片段还是在index上,都可以轻松处理; -可以将输出进行分拆,而且支持两种模式,分别是指定分拆的个数,或者分拆后每个文件的行数; fastp完美支持gzip的输入和输出,同时支持SE和PE数据,而且不但支持像Illumina平台的short read数据,也在一定程度上支持了PacBio/Nanopore的long reads数据。 fastp软件会生成HTML格式的报告,而且该报告中没有任何一张静态图片,所有的图表都是使用JavaScript动态绘制,非常具有交互性。想要看一下样板报告的,可以去以下链接:http://opengene.org/fastp/fastp.html 而且软件的开发者还充分考虑到了各种自动化分析的需求,不但生成了人可读的HTML报告,还生成了程序可读性非常强的JSON结果,该JSON报告中的数据包含了HTML报告100%的信息,而且该JSON文件的格式还是特殊定制的,不但程序读得爽,你用任何一款文本编辑器打开,一眼过去也会看得明明白白。想要看一下JSON结果长什么样的,可以去以下链接:http://opengene.org/fastp/fastp.json fastp软件下载网址 # 不一定最新 conda install -c bioconda fastp wget http://opengene.org/fastp/fastp chmod a+x ./fastp git clone https://github.com/OpenGene/fastp.git # build cd fastp make #安装 sudo make install git clone -b master --depth=1 https://github.com/OpenGene/fastp.git cd fastp make usage: fastp -i <in1> -o <out1> [-I <in1> -O <out2>] [options...] options: # I/O options 即输入输出文件设置 -i, --in1 read1 input file name (string) -o, --out1 read1 output file name (string [=]) -I, --in2 read2 input file name (string [=]) -O, --out2 read2 output file name (string [=]) -6, --phred64 indicates the input is using phred64 scoring (it'll be converted to phred33, so the output will still be phred33) -z, --compression compression level for gzip output (1 ~ 9). 1 is fastest, 9 is smallest, default is 2. (int [=2]) --reads_to_process specify how many reads/pairs to be processed. Default 0 means process all reads. (int [=0]) # adapter trimming options 过滤序列接头参数设置 -A, --disable_adapter_trimming adapter trimming is enabled by default. If this option is specified, adapter trimming is disabled -a, --adapter_sequence the adapter for read1. For SE data, if not specified, the adapter will be auto-detected. For PE data, this is used if R1/R2 are found not overlapped. (string [=auto]) --adapter_sequence_r2 the adapter for read2 (PE data only). This is used if R1/R2 are found not overlapped. If not specified, it will be the same as <adapter_sequence> (string [=]) # global trimming options 剪除序列起始和末端的低质量碱基数量参数 -f, --trim_front1 trimming how many bases in front for read1, default is 0 (int [=0]) -t, --trim_tail1 trimming how many bases in tail for read1, default is 0 (int [=0]) -F, --trim_front2 trimming how many bases in front for read2. If it's not specified, it will follow read1's settings (int [=0]) -T, --trim_tail2 trimming how many bases in tail for read2. If it's not specified, it will follow read1's settings (int [=0]) # polyG tail trimming, useful for NextSeq/NovaSeq data polyG剪裁 -g, --trim_poly_g force polyG tail trimming, by default trimming is automatically enabled for Illumina NextSeq/NovaSeq data --poly_g_min_len the minimum length to detect polyG in the read tail. 10 by default. (int [=10]) -G, --disable_trim_poly_g disable polyG tail trimming, by default trimming is automatically enabled for Illumina NextSeq/NovaSeq data # polyX tail trimming -x, --trim_poly_x enable polyX trimming in 3' ends. --poly_x_min_len the minimum length to detect polyX in the read tail. 10 by default. (int [=10]) # per read cutting by quality options 划窗裁剪 -5, --cut_by_quality5 enable per read cutting by quality in front (5'), default is disabled (WARNING: this will interfere deduplication for both PE/SE data) -3, --cut_by_quality3 enable per read cutting by quality in tail (3'), default is disabled (WARNING: this will interfere deduplication for SE data) -W, --cut_window_size the size of the sliding window for sliding window trimming, default is 4 (int [=4]) -M, --cut_mean_quality the bases in the sliding window with mean quality below cutting_quality will be cut, default is Q20 (int [=20]) # quality filtering options 根据碱基质量来过滤序列 -Q, --disable_quality_filtering quality filtering is enabled by default. If this option is specified, quality filtering is disabled -q, --qualified_quality_phred the quality value that a base is qualified. Default 15 means phred quality >=Q15 is qualified. (int [=15]) -u, --unqualified_percent_limit how many percents of bases are allowed to be unqualified (0~100). Default 40 means 40% (int [=40]) -n, --n_base_limit if one read's number of N base is >n_base_limit, then this read/pair is discarded. Default is 5 (int [=5]) # length filtering options 根据序列长度来过滤序列 -L, --disable_length_filtering length filtering is enabled by default. If this option is specified, length filtering is disabled -l, --length_required reads shorter than length_required will be discarded, default is 15. (int [=15]) # low complexity filtering -y, --low_complexity_filter enable low complexity filter. The complexity is defined as the percentage of base that is different from its next base (base[i] != base[i+1]). -Y, --complexity_threshold the threshold for low complexity filter (0~100). Default is 30, which means 30% complexity is required. (int [=30]) # filter reads with unwanted indexes (to remove possible contamination) --filter_by_index1 specify a file contains a list of barcodes of index1 to be filtered out, one barcode per line (string [=]) --filter_by_index2 specify a file contains a list of barcodes of index2 to be filtered out, one barcode per line (string [=]) --filter_by_index_threshold the allowed difference of index barcode for index filtering, default 0 means completely identical. (int [=0]) # base correction by overlap analysis options 通过overlap来校正碱基 -c, --correction enable base correction in overlapped regions (only for PE data), default is disabled # UMI processing -U, --umi enable unique molecular identifer (UMI) preprocessing --umi_loc specify the location of UMI, can be (index1/index2/read1/read2/per_index/per_read, default is none (string [=]) --umi_len if the UMI is in read1/read2, its length should be provided (int [=0]) --umi_prefix if specified, an underline will be used to connect prefix and UMI (i.e. prefix=UMI, UMI=AATTCG, final=UMI_AATTCG). No prefix by default (string [=]) --umi_skip if the UMI is in read1/read2, fastp can skip several bases following UMI, default is 0 (int [=0]) # overrepresented sequence analysis -p, --overrepresentation_analysis enable overrepresented sequence analysis. -P, --overrepresentation_sampling One in (--overrepresentation_sampling) reads will be computed for overrepresentation analysis (1~10000), smaller is slower, default is 20. (int [=20]) # reporting options -j, --json the json format report file name (string [=fastp.json]) -h, --html the html format report file name (string [=fastp.html]) -R, --report_title should be quoted with ' or ", default is "fastp report" (string [=fastp report]) # threading options 设置线程数 -w, --thread worker thread number, default is 3 (int [=3]) # output splitting options -s, --split split output by limiting total split file number with this option (2~999), a sequential number prefix will be added to output name ( 0001.out.fq, 0002.out.fq...), disabled by default (int [=0]) -S, --split_by_lines split output by limiting lines of each file with this option(>=1000), a sequential number prefix will be added to output name ( 0001.out.fq, 0002.out.fq...), disabled by default (long [=0]) -d, --split_prefix_digits the digits for the sequential number padding (1~10), default is 4, so the filename will be padded as 0001.xxx, 0 to disable padding (int [=4]) # help -?, --help print this message 虽然参数看起来比较多,但常用的主要包括以下几个部分: 输入输出文件设置 接头处理 全局裁剪(即直接剪掉起始和末端低质量碱基) 滑窗质量剪裁 (与trimmomatic相似) 过滤过短序列 校正碱基(用于双端测序) 质量过滤 fastp默认启用了接头处理,但是可以使用-A命令来关掉。fastp可以自动化地查找接头序列并进行剪裁,也就是说你可以不输入任何的接头序列,fastp全自动搞定了!对于SE数据,你还是可以-a参数来输入你的接头,而对于PE数据则完全没有必要,fastp基于PE数据的overlap分析可以更准确地查找接头,去得更干净,而且对于一些接头本身就有碱基不匹配情况处理得更好。fastp对于接头去除会有一个汇总的报告。 fastp可以对所有read在头部和尾部进行统一剪裁,该功能在去除一些测序质量不好的cycle比较有用,比如151*2的PE测序中,最后一个cycle通常质量是非常低的,需要剪裁掉。使用-f和-t分别指定read1的头部和尾部的剪裁,使用-F和-T分别指定read2的头部和尾部的剪裁。 很多时候,一个read的低质量序列都是集中在read的末端,也有少部分是在read的开头。fastp支持像Trimmomatic那样对滑动窗口中的碱基计算平均质量值,然后将不符合的滑窗直接剪裁掉。使用-5参数开启在5’端,也就是read的开头的剪裁,使用-3参数开启在3’端,也就是read的末尾的剪裁。使用-W参数指定滑动窗大小,默认是4,使用-M参数指定要求的平均质量值,默认是20,也就是Q20。 默认开启多序列过滤,默认值为15,使用-L(--disable_length_filtering)禁止此默认选项。或使用-l(--length_required)自定义最短序列。 fastp支持对PE数据的每一对read进行分析,查找它们的overlap区间,然后对于overlap区间中不一致的碱基,如果发现其中一个质量非常高,而另一个非常低,则可以将非常低质量的碱基改为相应的非常高质量值的碱基值。此选项默认关闭,可使用-c(--correction)开启。 fastp可以对低质量序列,较多N的序列,该功能默认是启用的,但可以使用-Q参数关闭。使用-q参数来指定合格的phred质量值,比如-q 15表示质量值大于等于Q15的即为合格,然后使用-u参数来指定最多可以有多少百分比的质量不合格碱基。比如-q 15 -u 40表示一个read最多只能有40%的碱基的质量值低于Q15,否则会被扔掉。使用-n可以限定一个read中最多能有多少个N。 #!/bin/bash for i in 74 75 76 82 83 84 85 86 87 88; do { fastp -i ~/RNAseq/cleandata/SRR17343${i}_1.fastq.gz -o SRR17343${i}_1.fastq.gz \ -I ~/RNAseq/cleandata/SRR17343${i}_2.fastq.gz -O SRR17343${i}_2.fastq.gz \ -Q --thread=5 --length_required=50 --n_base_limit=6 --compression=6 }& done wait
身分證字號 (中華民國) 身分證字號 (中華民國) 维基百科中的相关条目: 中華民國國民身分證 F228722347 import java.util.HashMap; import java.util.Map; public class TaiwanIdCard { Map<Character, Integer> regions; public TaiwanIdCard() { regions = new HashMap<Character, Integer>(); regions.put('B', 0); regions.put('N', 0); regions.put('Z', 0); regions.put('A', 1); regions.put('M', 1); regions.put('W', 1); regions.put('K', 2); regions.put('L', 2); regions.put('Y', 2); regions.put('J', 3); regions.put('V', 3); regions.put('X', 3); regions.put('H', 4); regions.put('U', 4); regions.put('G', 5); regions.put('T', 5); regions.put('F', 6); regions.put('S', 6); regions.put('E', 7); regions.put('R', 7); regions.put('D', 8); regions.put('O', 8); regions.put('Q', 8); regions.put('C', 9); regions.put('I', 9); regions.put('P', 9); } public boolean check(String id) { String re = "^[A-Z]{1}[1-2]{1}[0-9]{8}$"; if (!id.matches(re)) return false; int sum = regions.get(id.charAt(0)); int m = 8; for(int i=1; i<9; i++, m--) sum += (Character.getNumericValue(id.charAt(i)) * m); sum += Character.getNumericValue(id.charAt(9)); if ((sum % 10) != 0) return false; return true; } // gender: 1 for Male, 2 for Female public String create(Character region, int gender, int no) { StringBuilder id = new StringBuilder(); if (!regions.containsKey(region) || !((gender == 1) || (gender == 2)) || !((no >= 0) && (no <= 9999999))) { // input invalid return id.toString(); } id.append(region).append(gender); String strNo = String.valueOf(no); for (int i=0; i<(7-strNo.length()); i++) id.append('0'); id.append(strNo); int sum = regions.get(id.charAt(0)); int m = 8; for(int i=1; i<9; i++, m--) sum += (Character.getNumericValue(id.charAt(i)) * m); id.append(10 - (sum % 10)); return id.toString(); } } class TaiwanIdCard { constructor() { this.regions = { 'B' : 0, 'N' : 0, 'Z' : 0, 'A' : 1, 'M' : 1, 'W' : 1, 'K' : 2, 'L' : 2, 'Y' : 2, 'J' : 3, 'V' : 3, 'X' : 3, 'H' : 4, 'U' : 4, 'G' : 5, 'T' : 5, 'F' : 6, 'S' : 6, 'E' : 7, 'R' : 7, 'D' : 8, 'O' : 8, 'Q' : 8, 'C' : 9, 'I' : 9, 'P' : 9 }; } check(id) { let re = new RegExp('^[A-Z]{1}[1-2]{1}[0-9]{8}$'); let x = id.match(re); if ((x == null) || (x.length != 1)) return false; let sum = this.regions[id[0]]; let m = 8; for(i=1; i<9; i++, m--) sum += (parseInt(id[i]) * m); sum += parseInt(id[9]); if ((sum % 10) != 0) return false; return true; } // gender: 1 for Male, 2 for Female create(region, gender, no) { let id = ""; if ((typeof region === 'string') && (this.regions[region] != undefined) && ((gender == 1) || (gender == 2)) && ((no >= 0) && (no <= 9999999))) { id = region + gender; no = String(parseInt(Number(no))); for (i=0; i<(7-no.length); i++) id += '0'; id += no; let sum = this.regions[id[0]]; let m = 8; for(i=1; i<9; i++, m--) sum += (parseInt(id[i]) * m); id += (10 - (sum % 10)); } return id; } } <?php class TaiwanIdCard { private $regions; function __construct() { $this->regions = array( 'B' => 0, 'N' => 0, 'Z' => 0, 'A' => 1, 'M' => 1, 'W' => 1, 'K' => 2, 'L' => 2, 'Y' => 2, 'J' => 3, 'V' => 3, 'X' => 3, 'H' => 4, 'U' => 4, 'G' => 5, 'T' => 5, 'F' => 6, 'S' => 6, 'E' => 7, 'R' => 7, 'D' => 8, 'O' => 8, 'Q' => 8, 'C' => 9, 'I' => 9, 'P' => 9 ); } function check($id) { $re = "/^[A-Za-z][1-2][0-9]{8}$/"; if (!preg_match($re, $id)) return false; $sum = $this->regions[$id[0]]; $m = 8; for($i=1; $i<9; $i++, $m--) $sum += (intval($id[$i]) * $m); $sum += intval($id[9]); if (($sum % 10) != 0) return false; return true; } // gender: 1 for Male, 2 for Female function create($region, $gender, $no) { $id = ""; if (is_string($region) && array_key_exists($region, $this->regions) && (($gender == 1) || ($gender == 2)) && (($no >= 0) && ($no <= 9999999))) { $id = $region . $gender; $no = strval(intval($no)); for ($i=0; $i<(7-strlen($no)); $i++) $id .= '0'; $id .= strval($no); $sum = $this->regions[$id[0]]; $m = 8; for($i=1; $i<9; $i++, $m--) $sum += strval(intval($id[$i]) * $m); $id .= strval(10 - ($sum % 10)); } return $id; } } import re class TaiwanIdCard: regions = {'B':0,'N':0,'Z':0,'A':1,'M':1,'W':1,'K':2,'L':2,'Y':2,'J':3,'V':3,'X':3,'H':4,'U':4,'G':5,'T':5,'F':6,'S':6,'E':7,'R':7,'D':8,'O':8,'Q':8,'C':9,'I':9,'P':9} def check(self,id): pattern = '^[A-Z]{1}[1-2]{1}[0-9]{8}$' x = re.search(pattern, id) if x is None: return False sum = TaiwanIdCard.regions[id[0:1]] m = 8 for i in range(1,9): sum += (int(id[i:i+1]) * m) m-=1 sum += int(id[9:10]) if ((sum % 10) != 0): return False return True def create(self,region, gender, no): id = "" gender = int(gender) no = int(no) if ((TaiwanIdCard.regions[region] != None) and ((gender == 1) or (gender == 2)) and ((no >= 0) and (no <= 9999999))): id = str(region) + str(gender) strNo = str(int(no)) for i in range(0,7-len(strNo)): id += '0' id += strNo sum = TaiwanIdCard.regions[id[0:1]] m = 8 for i in range(1,9): sum += (int(id[i]) * m) m-=1 id += str(10 - (sum % 10)) return id File:TaiwanIdCard.cls VERSION 1.0 CLASS BEGIN MultiUse = -1 'True END Attribute VB_Name = "TaiwanIdCard" Attribute VB_GlobalNameSpace = False Attribute VB_Creatable = False Attribute VB_PredeclaredId = False Attribute VB_Exposed = False Private regions As Collection Private Sub Class_Initialize() Set regions = New Collection With regions .Add Item:=0, Key:="B" .Add Item:=0, Key:="N" .Add Item:=0, Key:="Z" .Add Item:=1, Key:="A" .Add Item:=1, Key:="M" .Add Item:=1, Key:="W" .Add Item:=2, Key:="K" .Add Item:=2, Key:="L" .Add Item:=2, Key:="Y" .Add Item:=3, Key:="J" .Add Item:=3, Key:="V" .Add Item:=3, Key:="X" .Add Item:=4, Key:="H" .Add Item:=4, Key:="U" .Add Item:=5, Key:="G" .Add Item:=5, Key:="T" .Add Item:=6, Key:="F" .Add Item:=6, Key:="S" .Add Item:=7, Key:="E" .Add Item:=7, Key:="R" .Add Item:=8, Key:="D" .Add Item:=8, Key:="O" .Add Item:=8, Key:="Q" .Add Item:=9, Key:="C" .Add Item:=9, Key:="I" .Add Item:=9, Key:="P" End With End Sub Private Sub Class_Terminate() Set regions = Nothing End Sub Public Function check(id As String) As Boolean Dim re As RegExp Set re = New RegExp ' 需引用 Microsoft VBScript Regular Expressions 5.5 re.Pattern = "^[A-Z]{1}[1-2]{1}[0-9]{8}$" If Not re.Test(id) Then check = False Exit Function End If Dim sum As Integer, m As Integer, i As Integer sum = regions.Item(Mid(id, 1, 1)) m = 8 For i = 2 To 9 sum = sum + (CInt(Mid(id, i, 1)) * m) m = m - 1 Next i sum = sum + CInt(Mid(id, 10, 1)) If ((sum Mod 10) <> 0) Then check = False Exit Function End If check = True End Function ' gender: 1 for Male, 2 for Female Public Function create(region As String, gender As Integer, no As Long) As String Dim id As String, strNo As String, i As Integer, m As Integer id = "" If ((regions.Item(region) = Null) Or _ Not ((gender = 1) Or (gender = 2)) Or _ Not ((no >= 0) And (no <= 9999999))) Then ' input invalid create = id Exit Function End If id = region & CStr(gender) strNo = CStr(no) For i = 1 To (7 - Len(strNo)) id = id & "0" Next i id = id & strNo sum = regions.Item(Mid(id, 1, 1)) m = 8 For i = 2 To 9 sum = sum + (CInt(Mid(id, i, 1)) * m) m = m - 1 Next i id = id & CStr(10 - (sum Mod 10)) create = id End Function 身分證 C#中華民國身分證檢核 | CTW隨手記事 - 點部落 居留證 C#中華民國外僑及大陸人士在台居留證檢核(舊式+新式) | CTW隨手記事 - 點部落
MySQL/Language/Definitions: what are DDL, DML and DQL? Data Definition Language (DDL): CREATE, ALTER, DROP Data Manipulation Language (DML) INSERT, UPDATE , DELETE Data Query Language (DQL) SELECT, SHOW , HELP Data Control Language (DCL) GRANT , REVOKE Data Transaction Language (DTL) START TRANSACTION, SAVEPOINT, COMMIT , ROLLBACK [TO SAVEPOINT]
工程材料/黄铜 黄铜是以锌为主要合金元素的铜合金。按照化学成分分为普通黄铜和复杂黄铜(特殊黄铜)。 黄铜的抗蚀性较好,与纯铜类似。 但冷加工的黄铜制品,由于残余应力的存在,在潮湿的大气、海水,以及含氨的介质中 易产生腐蚀开裂 因此冷加工的黄 及含氨的介质中,易产生腐蚀开裂。因此冷加工的黄铜合金应进行250~300°C的低温退火,以消除内应力。 普通黄铜的牌号为“H+数字”,H是“黄”字的拼音首字母,后面数字表示铜的百分含量。如,H70表示铜含量为70%的普通黄铜。 特殊黄铜的牌号用“H+主加合金元素(锌以外)的化学符号+ 铜含量+ 主加合金元素含量”,如,HPb59-1表示含59%Cu,1%Pb ,其余为锌的特殊黄铜。
初中物理/原子 自古以来人类就在不断地探究物质构成的奥秘。古希腊哲学家德谟克利特(希腊语:Δημόκριτος )提出了最早的原子论,他认为物质是不连续的,分到最后是一些不可再分的颗粒,他把这种构成物质的颗粒叫做原子,在古希腊文中的意思是“不可再分的颗粒”。从17世纪至18世纪,化学家发现了几十种元素的原子,例如氧(O)、氢(H)、碳(C)。多个原子又结合成许多物质的分子,例如两个氢原子组成一个氢气分子,一个氧原子和两个氢原子组成一个水分子。有些物质的分子是由单个原子构成的,例如氦(He)分子就是一种单原子分子。 19世纪末,英国物理学家汤姆生(J.J. Thomson)在实验中发现原子中存在着带负电的粒子,他把这种粒子叫做电子。电子的发现打破了原子是坚固的,不可再分的最微小粒子的观念,随之而来的问题是:原子是全部由带负电的电子组成的吗?这显然是不可能的,因为原子是不带电的(电中性)。因此,汤姆生设想原子中必定有等量的正电荷存在, 而正电荷像液体一样均匀地分布在原子里, 电子则“浸”在其中, 这一模型被人们称为“葡萄干蛋糕模型”。 汤姆生的学生英国物理学家卢瑟福(E. Rutherford)在实验中发现原子中全部正电荷和绝大部分质量都集中在原子内一个极小的空间区域,称为原子核。他设想电子像行星环绕太阳运转一样在原子核外绕原子核旋转,“行星模型”否定了“葡萄干蛋糕模型”,但也并不是完美的。 以后的实验进一步表明,原子中的电子不像行星环绕太阳旋转时那样有固定的轨道,而是形成电子云。 20世纪30年代,物理学家在实验中又发现原子核内除了带正电的质子外,还有一种质量与质子相同、但不带电的粒子,他们把这种粒子叫做中子。 因此,原子核是由带正电的质子和不带电的中子组成的,质子和中子统称为核子。原子是由原子核和分布在核外带负电的电子所组成的。大部分原子的大小(直径)约为10−10米,而原子核只有10−15-10−14米。 蕴藏在原子核中的能量叫做核能。
生物信息学/Bowtie 将短read与大基因组比对 构成 TopHat、Cufflinks、Crossbow 和 Myrna 的基础 除非使用基因组 DNA 分离的短read,否则不会直接使用 Bowtie 除了使用 bowtie-build 创建基因组序列索引文件 map常用的工具有bowtie/bowtie2, BWA,SOAP1/SOAP2等。这个问题又会被分成两个问题,是基因组测序(DNA-seq)还是转录组测序(mRNA-seq)。其中的区别是对于真核生物而言,mRNA序列与DNA序列并不完全相同,在经历了后剪切之后,成熟的mRNA可能是原基因的一部分,甚至顺序及个别碱基会产生变化。如果是mRNA测序,那map工作就会在DNA测序map的基础上再多一步,map到转录组上去。所以最为流行的做法是,使用bowtie来map DNA测序,使用tophat来map RNA测序。 现在用于短序列比对的主流软件是Bowtie和Bwa。Bowtie2主要用于将长度为 50〜1000bp的reads比对到基因组上,生成SAM格式的比对结果文件。Bowtie2将reads 比对到基因组,常常是很多分析的第一步。比如variation calling,ChlP-seq, RNA-seq 和 BS-seq 等。 Bowtie2 详细的网页说明文档:http://bowtie-bio.sourceforge.net/bowtie2/manual.shtml。 相比于Bowtie1,Bowtie2的主要优点和特性有: 1.对于长度大于50bp的reads,Bowtie2更快更精确;而小于50bp的reads,Bowtie1常常更快更精确。 2.Bowtie2支持的reads长度没有上限,当然reads长度在50〜1000bp为宜;而Bowtie1支持的reads长度最长约为1000bp。 3.Bowtie2的比对支持gap,而Bowtie1不支持。 4.Bowtie2可以支持局部比对,而Bowtie1不支持。 5.Bowtie2的比对支持在参考序列中有N,而Bowtie1不支持。 conda install bowtie=1.1.2 conda install bowtie=2.3.0 推荐直接下载Bowtie软件的二进制包。 Bowtie1各版本下载地址 Bowtie2各版本下载地址 myrna各版本下载地址 crossbow各版本下载地址 # 安装 Bowtie1: wget https://sourceforge.net/projects/bowtie-bio/files/bowtie/1.3.0/bowtie-1.3.0-linux-x86_64.zip unzip ~/software/bowtie-1.3.0-linux-x86_64.zip -d /opt/biosoft/ echo 'PATH=$PATH:/opt/biosoft/bowtie-1.3.0-linux-x86_64/' >> ~/.bashrc source ~/.bashrc # 安装 Bowtie2 wget https://sourceforge.net/projects/bowtie-bio/files/bowtie2/2.4.4/bowtie2-2.4.4-linux-x86_64.zip -P ~/software/ unzip ~/software/bowtie2-2.4.4-linux-x86_64.zip -d /opt/biosoft/ echo 'PATH=$PATH:/opt/biosoft/bowtie2-2.4.4-linux-x86_64/' >> ~/.bashrc source ~/.bashrc Bowtie1官网 Bowtie1使用手册 Bowtie1参考文献 Langmead B, Trapnell C, Pop M, Salzberg SL. Ultrafast and memory-efficient alignment of short DNA sequences to the human genome. Genome Biology 10:R25. Langmead B. Aligning Short Sequencing Reads with Bowtie. Current Protocols in Bioinformatics Vol 32, Iss 1, 2010, pp 11.7.1-11.7.14. Langmead B, Wilks C, Antonescu V, Charles R. Scaling read aligners to hundreds of threads on general-purpose processors. Bioinformatics Vol 35, Iss 3, 2019, pp 421–432. Bowtie2官网 Bowtie2使用手册 Bowtie2参考文献 Langmead B, Salzberg S. Fast gapped-read alignment with Bowtie 2. Nature Methods. 2012, 9:357-359. Langmead B, Wilks C, Antonescu V, Charles R. Scaling read aligners to hundreds of threads on general-purpose processors. Bioinformatics Vol 35, Iss 3, 2019, pp 421–432. 使用Bowtie2进行序列的比对,首先要使用bowtie2-build来生成参考序列的索引数据库。命令为: bowtie2-build,默认情况下将fasta文件换成index的数据库。 $ bowtie2-build --threads 4 <fastaFile文件> <要生成的索引文件前缀名Prefix> Prefix为生成的数据库文件的前缀,也作为输入到bowtie2中的数据库名。 --large-index 加入该参数后,则使用较大的索引。一般情况下基因组大于4G的时候,考虑使用大索引。若索引越大,则索引的数目越少,构建索引的速度越快,索引文件也越小;但是,根据索引进行搜索的时候,需要在大索引中定位序列匹配位置更加耗时,从而增加比对时间。 --threads <int> 设置运行的线程数。 Bowtie2的用法: bowtie2 [options]* -x <bt2-idx> {-1 <m1> -2 <m2> | -U <r>} -S [<hit>] Bowtie2的常用例子: 对参考序列构建index $ bowtie2-build genome.fasta index 尝试使用前10000(1M)个reads进行比对,用于快速调查short reads的匹配率; $ bowtie2 -u 10000 -p 4 -x index -1 reads1.fq -2 reads2.fq -S out.sam 使用24个线程进行比对,设定测序格式为Phred33,运行的插入片段长度在0~500: $ bowtie2 -p 24 -x index -1 reads1.fq -2 reads2.fq -S out.sam 比对的sam结果中添加了read group信息 $ bowtie2 -p 8 --rg-id sample01 --rg "PL:ILLUMINA" --rg "SM:sample01" -x index -1 reads1.fq -2 reads2.fq -S out.sam 常用的参数进行比对,可以更改其中的参数获得更好的结果 $ bowtie2 -q --phred33 --sensitive --end-to-end -I 0 -X 500 --fr --un unpaired --al aligned --un-conc unconc --al-conc alconc -p 6 --reorder -x <bt2-idx> {-1 <m1gt; -2 <m2> | -U <r>} -S [<hit>] 必须参数: -x <bt2-idx> 由bowtie2-build所生成的索引文件的前缀。首先 在当前目录搜寻,然后在环境变量 BOWTIE2_INDEXES 中制定的文件夹中搜寻。 -1 <m1> 双末端测寻对应的文件1。可以为多个文件,并用逗号分开;多个文件必须和 -2 <m2> 中制定的文件一一对应。比如:"-1 flyA_1.fq,flyB_1.fq -2 flyA_2.fq,flyB_2.fq". 测序文件中的reads的长度可以不一样。 -2 <m2> 双末端测寻对应的文件2. -U <r> 非双末端测寻对应的文件。可以为多个文件,并用逗号分开。测序文件中的reads的长度可以不一样。 -S <hit> 所生成的SAM格式的文件前缀。默认是输入到标准输出。 (以下是可选参数:) 输入参数: -q 输入的文件为FASTQ格式文件,此项为默认值。 -qseq 输入的文件为QSEQ格式文件。 -f 输入的文件为FASTA格式文件。选择此项时,表示--ignore-quals也被选择了。 -r 输入的文件中,每一行代表一条序列,没有序列名和测序质量等。选择此项时,表示--ignore-quals也被选择了。 -c 后直接为比对的reads序列,而不是包含序列的文件名。序列间用逗号隔开。选择此项时,表示—ignore-quals也被选择了。 -s/--skip <int> input的reads中,跳过前<int>个reads或者pairs。 -u/--qupto <int> 只比对前<int>个reads或者pairs(在跳过前<int>个reads或者pairs后)。Default: no limit. -5/--trim5 <int> 剪掉5'端<int>长度的碱基,再用于比对。(default: 0). -3/--trim3 <int> 剪掉3'端<int>长度的碱基,再用于比对。(default: 0). --phred33 输入的碱基质量等于ASCII码值加上33. 在最近的illumina pipiline中得以运用。最低碱基质量是“#”。 --phred64 输入的碱基质量等于ASCII码值加上64.最低碱基质量是“B”。 --solexa-quals 将Solexa的碱基质量转换为Phred。在老的GA Pipeline版本中得以运用。Default: off. --int-quals 输入文件中的碱基质量为用“ ”分隔的数值,而不是ASCII码。比如 40 40 30 40...。Default: off. Bowtie2可以支持reads的全局比对和局部比对两种模式,下面是这两种模式的预设参数。当然,可以通过修改比对参数来替换其预设参数。Bowtie2默认使用全局比对模式。 –end-to-end模式下的预设参数。选择–end-to-end参数相当于设定如下参数。 --very-fast Same as: -D 5 -R 1 -N 0 -L 22 -i S,0,2.50 --fast Same as: -D 10 -R 2 -N 0 -L 22 -i S,0,2.50 --sensitive Same as: -D 15 -R 2 -N 0 -L 22 -i S,1,1.15 (default in --end-to-end mode) --very-sensitive Same as: -D 20 -R 3 -N 0 -L 20 -i S,1,0.50 --loca模式下的预设参数。选择–local参数相当于设定如下参数。 --very-fast-local Same as: -D 5 -R 1 -N 0 -L 25 -i S,1,2.00 --fast-local Same as: -D 10 -R 2 -N 0 -L 22 -i S,1,1.75 --sensitive-local Same as: -D 15 -R 2 -N 0 -L 20 -i S,1,0.75 (default in --local mode) --very-sensitive-local Same as: -D 20 -R 3 -N 0 -L 20 -i S,1,0.50 比对参数: -N <int> 进行种子比对时允许的mismatch数. 可以设为0或者1. Default: 0. -L <int> 设定种子的长度. ************************************************************ 功能选项 给bowtie的一些参数设定值的时候,使用一个计算公式代替,于是值的大小与比对序列的长度成一定关系。<func>有三部分组成: (a)计算方法, 包括常数(C),线性(L),平方根(S)和自然对数(G); (b)一个常数; (c)一个系数. 例如: <func> 为 L,-0.4,-0.6 则计算公式为: f(x) = -0.4 + -0.6 * x <func> 为G,1,5.4 则计算公式为: f(x) = 1.0 + 5.4 * ln(x) ************************************************************ -i <func> 设定两个相邻种子间所间距的碱基数。 ************************************************************ 例如:如果read的长度为30, 种子的长度为10, 相邻种子的间距为6,则提取出的种子如下 所示: Read: TAGCTACGCTCTACGCTATCATGCATAAAC Seed 1 fw: TAGCTACGCT Seed 1 rc: AGCGTAGCTA Seed 2 fw: CGCTCTACGC Seed 2 rc: GCGTAGAGCG Seed 3 fw: ACGCTATCAT Seed 3 rc: ATGATAGCGT Seed 4 fw: TCATGCATAA Seed 4 rc: TTATGCATGA ************************************************************ 在--end-to-end模式中默认值为”-i S,1,1.15”.即表示f(x) = 1 + 1.15 * sqrt(x). 如果read长度为100, 则相邻种子的间距为12. --n-ceil <func> 设定read中允许含有不确定碱基(非GTAC,通常为N)的最大数目。 Default: L,0,0.15. 计算公式为: f(x) = 0 + 0.15 * x, 表示长度为100的read最多运行存在15个不确定碱基。一旦不确定碱基数超过15, 则该条read会被过滤掉. --dpad <int> Default: 15. --gbar <int> 在read头尾<int>个碱基内不允许gap. Default: 4. --ignore-quals 计算错配罚分的时候不考虑碱基质量. 当输入序列的模式为-f, -r 或者-c的时候, 该设置自动成为默认设置。 --nofw/--norc --nofw设定read不和前导链(forward reference strand)进行比对; --norc 设定不和后随链(reverse-complement reference strand)进行比对。 Default: both strands enabled. --end-to-end 比对是将整个read和参考序列进行比对。该模式--ma的值为0。该模式为默认模式, --local模式冲突。 --local 该模式下对read进行局部比对, 从而, read两端的一些碱基不比对,从而使比对得分满足要求。该模式下 --ma默认为2. 得分罚分参数: --ma <int> 设定匹配得分. --local模式下每个read上碱基和参考序列上碱基匹配, 则加<int>分. 在--end-to-end模式中无效. Default: 2. --mp MX,MN 设定错配罚分. 其中MX为所罚最高分, MN为所罚最低分。默认设置下罚分与碱基质量相关。罚分遵循的公式为: MN + floor( (MX-MN)(MIN(Q, 40.0)/40.0) )。其中Q为碱基的质量值。如果设置了--ignore-qual参数, 则错配总是罚最高分。Default: MX = 6, MN = 2。 --np <int> 当匹配位点中read, reference上有不确定碱基(比如N)时所设定的罚分值。Default: 1。 --rdg <int1>,<int2> 设置在read上打开gap 罚分<int1>, 延长gap罚分<int2>。Default: 5, 3。 --rfg <int1>,<int2> 设置在reference上打开gap 罚分<int1>, 延长gap罚分<int2>。Default: 5, 3。 --score-min <func> 设定成为有效比对的最小分值. 在—end-to-end模式下默认值为:L,-0.6,-0.6; 在--local模式下默认值为: G,20,8. 报告参数 -k <int> 默认设置下, bowtie2搜索出了一个read不同的比对结果, 并报告其中最好的比对结果(如果好几个最好的比对结果得分一致, 则随机挑选出其中一个)。而在该模式下,bowtie2最多搜索出一个read <int>个比对结果, 并将这些结果按得分降序报告出来. -a 和-k参数一样, 不过不限制搜索的结果数目。并将所有的比对结果都按降序报告出来。此参数和-k参数冲突。值得注意的是: 如果基因组含有很多重复序列时, 该参数会导致程序运行极其缓慢. Effort 参数 -D <int> 比对时, 将一个种子延长后得到比对结果, 如果不产生更好的或次好的比对结果, 则该次比对失败. 当失败次数连续达到<int>次后, 则该条read比对结束。Bowtie2才会继续进行下去。Default: 15。当具有-k或-a参数, 则该参数所产生的限制会自动调整。 -R <int> 如果一个read所生成的种子在参考序列上匹配位点过多。当每个种子平均匹配超过300个位置, 则通过一个不同的偏移来重新生成种子进行比对。<int>则是重新生成种子的次数。Default: 2。 Paired-end 参数 -I/--minins <int> 设定最小的插入片段长度。Default: 0。 -X/--maxins <int> 设定最长的插入片段长度。Default: 500。 --fr/--rf/--ff 设定上下游reads和前导链paired-end比对的方向。Default: --fr。 --fr(==>> <<==): 匹配时,read1在5'端上游, 和前导链一致, read2在3'下游, 和前导链反向互补。或者read2在上游, read1在下游反向互补。 --rf(<<== ==>>): read1在5'端上游, 和前导链反向互补, read2在3'端下游, 和前导链一致。 --ff(==>> ==>>): 两条reads都和前导链一致。 默认设置适合于Illumina的paired-end测序数据; 若是mate-paired, 则要选择—rf参数。 --no-mixed 默认设置下, 一对reads不能成对比对到参考序列上, 则单独对每个read进行比对。该选项则阻止此行为。 --no-discordant 默认设置下, 一对reads不能和谐比对(concordant alignment,即满足-I, -X, --fr/--rf/--ff的条件)到参考序列上, 则搜寻其不和谐比对(discon cordant alignment, 即两条reads都能独一无二地比对到参考序列上, 但是不满足-I,-X,--fr/--rf/--ff的条件)。该选项阻止此行为。 --dovetail read1和read2的关系为dovetail的时候,该状况算为和谐比对。默认情况下dovetail不算和谐比对. --no-contain read1和read2的关系为包含的时候, 该状况不算为和谐比对。默认情况下包含关系算为和谐比对. --no-overlap read1和read2的关系为有重叠的时候, 该状况不算为和谐比对。默认情况下两个reads重叠算为和谐比对。 输出参数 -t/--time Print the wall-clock time required to load the index files and align the reads. Default: off. --un <path> 将unpaired reads写入到<path>. --un-gz <path> 将unpaired reads写入到<path>, gzip压缩. --un-bz2 <path> 将unpaired reads写入到<path>, bz2压缩. --al <path> 将至少能比对1次以上的unpaired reads写入<path>. --al-gz <path> 将至少能比对1次以上的unpaired reads写入<path>,gzip压缩. --al-bz2 <path> 将至少能比对1次以上的unpaired reads写入<path>,bz2压缩. --un-conc <path> 将不能和谐比对的paired-end reads写入<path>. --un-conc-gz <path> ... ,gzip压缩. --un-conc-bz2 <path> ... ,bz2压缩. --al-conc <path> 将至少能和谐比对一次以上的paired-end reads写入<path>. --al-conc-gz <path> ... ,gzip压缩. --al-conc-bz2 <path>... ,bz2压缩. --quiet 安静模式,除了比对错误和一些严重的错误, 不在屏幕上输出任何东西. --met-file <path> 将bowtie2的检测信息(metrics)写入文件<path>. 用于debug. Default: metrics disabled. --met-stderr <path> 将bowtie2的检测信息(metrics)写入标准错误文件句柄. 和上 一个选项不冲突. Default: metrics disabled. --met <int> 每隔<int>秒写入一次metrics记录. Default: 1. Sam参数 --no-unal 不记录没比对上的reads. --no-hd 不记录SAM header lines (以@开头). --no-sq 不记录@SQ的SAM header lines. --rg-id <text> 设定read group ID为text。在SAM文件的头中增加一行@RG,在输出的SAM文件中添加Tag "RG:Z:text"。 --rg <text> 使用text作为@RG的一列,比如"SM:Pool1"。在@RG中加入多列,则多次使用该参数即可。在进行Variant calling的过程中需要@RG头,SM信息和Tag RG。 性能参数 -o/--offrate <int> 无视index的offrate值, 以<int>取代之. Index默认的<int> 值为5. <int>值必须大于index的offrate值, 同时<int>越大, 耗时越长,耗内存越少. -p/--threads NTHREADS 设置线程数. Default: 1 --reorder 多线程运算时, 比对结果在顺序上会和文件中reads的顺序不一致, 使用该选项, 则使其一致. --mm 使用内存定位的I/O来载入index, 而不是常规的文件I/O. 从而使多个bowtie程序共用内存中同样的index, 节约内存消耗. 其它参数: --qc-filter 滤除QSEQ fileter filed为非0的reads. 仅当有—qseq选项时有效. Default: off. --seed <int> 使用<int>作为随机数产生的种子. Default: 0. --version 打印程序版本并退出 -h/--help 打印用法信息并退出 Bowtie2输出的比对结果文件为SAM格式,同时在比对完毕时,将比对的统计结果输出到标准错误输出。 有关于SAM格式的介绍请见本章第4节。Bowtie2生成的SAM格式中,最后一列 Tags的一些说明如下: AS:i:<N> 比对得分。该值可以是负数,在--local模式才可以是正数。 XS:i:<N> Read的最佳比对结果的得分,而不一定是当前比对记录的得分。当reads比对到参考序列多个位点时,才出现此tag。 bowtie2-build --threads 4 genome.fasta genome bowtie2 -p 4 -x genome -1 V1.1.fastq -2 V1.2.fastq -S V1.sam 2> V1.bowtie2.log bowtie2 -p 4 -x genome -1 V2.1.fastq -2 V2.2.fastq -S V2.sam 2> V2.bowtie2.log
MySQL/Language/Specifying names 使用反引号(`)包上 MySQL的标识符,如表名、列名、数据库名等。这可以更好理解报错信息。对比以下两例: mysql> SELECT user_id, group_id FROM user,group LIMIT 1; ERROR 1064 (42000): You have an error in your SQL syntax; check the manual that corresponds to your MySQL server version for the right syntax to use near 'group LIMIT 1' at line 1 更好的效果: mysql> SELECT user_id, group_id FROM `user`,`group` LIMIT 1; ERROR 1146 (42S02): Table 'savannah.group' doesn't exist 它丢了一个字符s: mysql> SELECT user_id, group_id FROM `user`,`groups` LIMIT 1; +---------+----------+ | user_id | group_id | +---------+----------+ | 100 | 2 | +---------+----------+ 1 row in set (0.02 sec) 反引号允许使用保留字、非法字符作为对象的名字。甚至可以使用反引号自身(输入两遍): RENAME TABLE `user` TO ```` SQL国际标准建议使用双引号("),但MySql必须先SET sql_mode='ANSI_QUOTES';才支持双引号。注意,根据ANSI SQL,带引号的标识符区分大小写。但MySQL不遵守该要求。这样的标识符是否区分大小写取决于MySQL中的几个(不同)配置设置。
工程材料/普通黄铜 普通黄铜中Zn的含量对黄铜的组织和力学性能的影响很大。 当Zn含量小于30~32% 时,为单相黄铜。Zn完全固溶于Cu内,形成面心立方晶格的a固溶体,塑性好,并且随Zn含量的增加,强度和塑性都提高,适宜于冷热加工。 当Zn含量介于32%~45%时,为双相黄铜。黄铜的组织由a固溶体 „ 当Zn含量介于32% 45%时,为双相黄铜。黄铜的组织由a固溶体和体心立方晶格的b 相构成,此时的塑性下降,而强度仍很高,冷加工性能较差,但热加工性能良好。 当Zn含量超过45%时,铜合金组织全部为b 相,强度和塑性急剧下降。 单相黄铜H80、H70、H68 塑性很好,适于制作冷轧板材、冷拉线材、管材及形状复杂的深冲零件。 双相黄铜H62、H59 可进行热变形,常热轧成棒材、板材。可铸造。
初中物理/能量的转化与守恒 现在你已经对物理学有了一个初步的认识了。在《初中物理》中,我们学习研究了“声”、“光”、“运动”、“力”、“热”以及“电”这六个部分。现在我们回到最初在“前言”中提出的问题——物理学是什么? 物理是一门自然科学。物理学的研究对象是物质的各种运动形式及其相互间的转换。物质不同的运动形式对应不同形式的能量。例如,与机械运动对应的是机械能,与分子热运动对应的是内能。此外,还有电能、核能、化学能、磁能、太阳能、光能等。 将一个物体所拥有的能量转移到另一个物体上,这个过程称之为“能量的转移”。例如,将两个不同温度的物体相接触,温度高的物体会把能量转移到温度低的物体上。这一个过程也称之为“热传递”。 不同形式的能量可以相互转化。例如,白炽灯泡能将电能转化为内能和光能;电动机能将电能转化为机械能;电池能将化学能转化为电能;蒸汽机能将内能转化为机械能。 大量的事实证明,不同形式能量之间的转化是通过做功过程实现的。 研究表明:在能量转化过程中,在一定量的某种形式的能量减少的同时,总是伴随着等量的其他形式能量的增加,但总的能量是不变(守恒)的。 同样,在自然界中,能量既不会凭空产生,也不会凭空消失,它只能从一种形式转化为其他形式,或者从一个物体转移到别的物体,而能的总量保持不变。这个规律叫做能量转化和守恒定律。 生物的生存、机器的运转、电器的工作都要消耗能量。凡是能提供能量的物质资源,都可称为能源。 自然界直接提供的能源中的煤、石油、天然气等化石燃料,以及核燃料,由于一旦开采。就难以在地球上迅速再生,所以称之为“非再生能源”。目前世界能源消耗绝大部分来自于化石燃料。 非再生能源的总量是有限的,所以必须及早开发新能源。提高能源的利用效率也是节能的重要发展方向。 祝贺你!至此为止,你在初中物理之“海”中的“航程”已经终了。 不过,探险还未结束,接下来,你将登上新大陆,继续在高中物理中探寻科学知识。
生物信息学/bwa 新的DNA测序技术产生了大量的短read,需要开发快速准确的read比对程序。MAQ是一种基于哈希表的方法,用于从单个个体比对短read,但对于频繁出现插入缺失的较长read和数百个个体的比对不合适。为了解决这些限制,开发了Burrows-Wheeler Alignment工具(BWA),它可以有效地将短测序read与大型参考序列(例如人类基因组)进行比对,允许不匹配(misMactch)和间隙(gap)。BWA支持基于碱基空间的read,例如Illumina测序机器和来自AB SOLiD机器的颜色空间read。模拟和真实数据的评估表明,BWA比MAQ快约10-20倍,同时实现相似的准确性。此外,BWA输出新的标准SAM(Sequence Alignment/Map)格式的比对。在比对之后进行变异分析和其他下游分析可以使用开源的SAMtools软件包。 软件网址:http://maq.sourceforge.net。 对参考基因组进行短读比对方面已经发展了很多算法,但是对于长读(>200 bp)的比对,现有的算法大多针对低测序错误率的短读进行调整,不适用或者效率不高。因此,需要设计一种能够高效比对长序列的算法。作者基于Burrows-Wheeler算法提出了一种新算法,称为Burrows-Wheeler Aligner's Smith-Waterman Alignment(BWA-SW),能够使用少量内存对长达1 Mb的序列进行比对。结果显示,该算法比BLAT更加准确,与SSAHA2的准确率相当,并且比两者都快几十倍。BWA-SW的源代码已公开。 bwa-sw软件网站:http://bio-bwa.sourceforge.net/ 软件发表时的文章: bwa:使用 Burrows-Wheeler 变换进行快速准确的短reads比对(2009) bwa-sw:使用 Burrows-Wheeler 变换进行快速准确的长read比对 本页面主要介绍BWA的原理,关于使用请参考BWA的使用。 将Illumina/Solexa测序技术产生的短read序列比对到大型基因组的比对软件,分为三个类别:基于哈希的比对程序、基于基因组的比对程序和基于字符串合并排序的比对程序。最近,使用Burrows-Wheeler Transform(BWT)的字符串匹配理论引起了几个研究小组的关注,这导致了SOAPv2(http://soap.genomics.org.cn/)、Bowtie(Langmead et al., 2009)和BWA等比对软件的开发。BWA是一种新的比对程序,使用BWT和反向搜索(Ferragina 和 Manzini,2000 年;Lippert,2005 年)来进行精确和近似匹配,具有相对较小的内存占用(Lam 等人,2008 年),能够快速且准确地将短read序列比对到大型基因组。BWA比对软件被证明在模拟和真实数据上的表现优于其他比对程序,特别是在内存使用方面。 基于哈希的比对程序:Eland (Cox, 2007, unpublished material)、RMAP (Smith et al., 2008)、MAQ (Li et al., 2008a)、ZOOM (Lin et al., 2008)、SeqMap (Jiang and Wong, 2008)、CloudBurst (Schatz, 2009) 和 SHRiMP (http://compbio.cs.toronto.edu/shrimp) 基于基因组的比对程序:SOAPv1 (Li et al., 2008b)、PASS (Campagna et al., 2009)、MOM (Eaves and Gao, 2009)、ProbeMatch (Jung Kim et al., 2009)、NovoAlign (http://www.novocraft.com)、ReSEQ (http://code.google.com/p/re-seq)、Mosaik (http://bioinformatics.bc.edu/marthlab/Mosaik) 和 BFAST (http://genome.ucla.edu/bfast) 基于字符串合并排序:Malhis 等人,2009 年 随着 1990 年左右的局部比对软件的发展,例如 FASTA(Pearson 和 Lipman,1988)和 BLAST(Altschul 等,1997),自 2000 年以来开发了新一代更快的 DNA 序列匹配方法,包括 MegaBLAST (Morgulis et al., 2008; Zhang et al., 2000)、SSAHA2 (Ning et al., 2001)、BLAT (Kent, 2002) 和 PatternHunter (Ma et al., 2002),大大加快了匹配测序read针对大型参考基因组。当新的测序技术出现并产生数百万个短read(<100 bp)时,各种新算法被开发出来,速度提高了 10-1000 倍,包括 SOAP (Li,R. et al., 2008)、MAQ (Li, H. et al., 2008)、 Bowtie(Langmead 等人,2009 年)和 BWA(Li 和 Durbin,2009 年)。然而,Roche/454 测序技术已经开始产生了 >400 bp 的read读数,Illumina 逐渐增加了 >100 bp 的read读数,而 Pacific Bioscience 在早期测试中产生了 1000 bp 的读数(Eid 等,2009)。来自新测序技术的read不再是短的序列,这有效地排除了许多专为不超过 100 bp 的read设计的比对软件。 随着产生长read读数的新测序技术的出现,现有的短read读数比对算法对于长read读数比对来说并不高效。长read比对的目的是寻找局部匹配,因为长read更容易受到结构变异和参考基因组序列中错配组装的影响,但受靠近read末端的错配影响较小。此外,由于长read中更频繁地出现插入和缺失,所以长读数比对算法必须对比对缺口gap持宽容态度。 BWA-SW是一种新的长read排列算法,在两个FM-indices之间使用动态编程来寻找种子,并在它们在参考序列中很少出现的情况下进行扩展。该算法旨在减少高度重复序列的不必要的扩展,从而提高速度。 字符串 X 的前缀树是一棵树,其中每条边都用一个符号标记,从叶子到根的路径上边符号的字符串连接给出了唯一的前缀 X。在前缀树上,字符串连接从节点到根的边符号给出了 X 的唯一子串,称为节点所代表的串。请注意,X 的前缀树与 X 的反向后缀树相同,因此后缀树理论也可以应用于前缀树。 使用前缀 trie,测试查询 W 是否是 X 的精确子串相当于找到表示 W 的节点,这可以通过将 W 中的每个符号与一条边匹配,在 O(|W|) 时间内完成,从根。为了允许不匹配,可以彻底遍历特里树并将 W 匹配到每个可能的路径。稍后将展示如何通过使用 W 的前缀信息来加速此搜索。图1给出了“GOOGOL”的前缀树的示例。每个节点中的后缀数组(SA)间隔在第 2.3.3 节中解释。 设 Σ 是一个字母表。 符号 $ 不存在于 Σ 中,并且按字典顺序小于 Σ 中的所有符号。 字符串 X=a0a1…an−1 总是以符号 $ 结尾(即 an−1=$),并且这个符号只出现在末尾。 设 X[i]=ai, i=0, 1,..., n−1, 是 X 的第 i 个符号,X[i, j]=ai ...aj 是一个子串,Xi=X[i, n− 1] X 的后缀。X 的后缀数组 S 是整数 0…n−1 的排列,使得 S(i) 是第 i 个最小后缀的起始位置。 X 的 BWT 在 S(i)=0 时定义为 B[i]=$,否则定义为 B[i]=X[S(i)-1]。 还将字符串 X 的长度定义为 |X| 因此 |X|=|B|=n。 图2 给出了如何构造 BWT 和后缀数组的示例。 图 2 所示的算法在时间和空间上是二次的。 然而,这不是必需的。 在实践中,通常先构造后缀数组,然后生成 BWT。 大多数构建后缀数组的算法至少需要 n⌈log2n⌉ 位的工作空间,对于人类基因组来说,这相当于 12 GB。 最近,Hon 等人。 (2007) 给出了一种新算法,该算法使用 n 位工作空间,并且在构建人类基因组 BWT 的高峰时间只需要 <1 GB 内存。 该算法在 BWT-SW 中实现(Lam 等人,2008 年)。 修改了源代码以使其与 BWA 一起使用。 如果字符串 W 是 X 的子字符串,则 X 中 W 每次出现的位置将出现在后缀数组中的一个区间内。 这是因为所有以 W 作为前缀的后缀都排序在一起。 基于这一观察,定义: R _ ( W ) = m i n { k : W   i s   t h e   p r e f i x   o f   X S ( k ) } {\displaystyle {\underline {R}}(W)=min\left\{k:W\ is\ the\ prefix\ of\ X_{S(k)}\right\}} (1) R ¯ ( W ) = m a x { k : W   i s   t h e   p r e f i x   o f   X S ( k ) } {\displaystyle {\overline {R}}(W)=max\left\{k:W\ is\ the\ prefix\ of\ X_{S(k)}\right\}} (2) 特别是,如果 W 是空字符串,则 R(W)=1 和 R ¯ = n − 1 {\textstyle {\overline {R}}=n-1} 。 [ R _ ( W ) , R ¯ ( W ) ] {\textstyle [{\underline {R}}(W),{\overline {R}}(W)]} 称为 W 的 SA 区间,X 中所有出现 W 的位置集合是 { S ( k ) : R _ ( W ) ≤ k ≤ R ¯ ( W ) } {\textstyle \left\{S(k):{\underline {R}}(W)\leq k\leq {\overline {R}}(W)\right\}} 。 例如在图 2 中,字符串 ‘go’ 的 SA 区间为 [1, 2]。 此区间中的后缀数组值为 3 和 0,给出了所有“go”出现的位置。 知道后缀数组中的间隔可以得到位置。 因此,序列比对相当于搜索X的子串的SA区间与查询匹配。 对于精确匹配问题,只能找到一个这样的区间; 对于不精确匹配的问题,可能有很多。 令 C(a) 是 C(a)=#{0≤j≤n−2:X[j]<a}和O(a,i)=#{0≤j≤i:B[j]<a}中按字典顺序小于 a ∈ Σ 的符号数,O(a, i) 是 a 在 B[0, i] 中的出现次数。 Ferragina 和 Manzini (2000) 证明了如果 W 是 X 的子串: R _ ( a W ) = C ( a ) + O ( a , R _ ( W ) − 1 ) + 1 {\displaystyle {\underline {R}}(aW)=C(a)+O(a,{\underline {R}}(W)-1)+1} (3) R ¯ ( a W ) = C ( a ) + O ( a , R ¯ ( W ) ) {\displaystyle {\overline {R}}(aW)=C(a)+O(a,{\overline {R}}(W))} (4) 当且仅当 aW 是 X 的子串时, R _ ( a W ) ≤ R ¯ ( a W ) {\displaystyle {\underline {R}}(aW)\leq {\overline {R}}(aW)} 。此结果使得可以通过迭代计算 R _ {\displaystyle {\underline {R}}} 和 R ¯ {\displaystyle {\overline {R}}} 来测试 W 是否是 X 的子串并计算 W 在 O(|W|) 时间内的出现次数从W结尾。这个过程叫做反向搜索。 需要注意的是,等式(3)和(4)实际上实现了对X的前缀trie的自顶向下遍历,因为如果知道其父节点的间隔,可以在恒定时间内计算出子节点的SA间隔 . 从这个意义上说,向后搜索相当于前缀树上的精确字符串匹配,但没有明确地将树放入内存中。 给出了一种递归算法,用于搜索 X 的子串的 SA 区间,该区间与查询字符串 W 匹配且差异不超过 z(不匹配或间隙)。 本质上,该算法使用向后搜索从基因组中采样不同的子串。 此过程受 D(·) 数组的限制,其中 D(i) 是 W[0, i] 中差异数量的下限。 D 估计得越好,搜索空间越小,算法效率越高。 通过为所有 i 设置 D(i)=0 来实现一个朴素的界限,但由此产生的算法在差异数量上显然是指数级的,并且效率较低。 Precalculation: Calculate BWT string B for reference string X Calculate array C(·) and Ο(·,·) from B Calculate BWT string B' for the reverse reference Calculate array Ο'(·) from B' Procedures: INEXACTSEARCH(W,z) CalculateD(W) return InexRecur(W, |W|-1,z,1,|X|-1) CalculateD(W) k ← 1 z ← 0 for i = 0 to |W|-1 do k ← C(W[i])+O'(W[i],k-1)+1 l ← C(W[i])+O'(W[i],l) if k > l then k ← l l ← |X|-1 z ← z+1 D(i) ← z InexRecur( W, z, k, l) if z < D(i) then return Φ if z <0 then return {[k,l]} I ← Φ I ← I ∪ InexRecur(W, i-1,z-1,k,l) for each b∈{A,C,G,T} do k ← C(b) + O(b,k-1)+1 l ← C(b)+O(b,l) if k ≤ l then I ← I ∪ InexRecur(W,i,z-1,k,l) if b = W[i] then I ← I ∪ InexRecur(W,i- 1 ,z,k,l) else I ← I ∪ InexRecur(W,i-1 ,z-1,k,l) return I 图3:不精确搜索匹配 W 的子串的 SA 区间的算法。参考 X 以 $ 终止,而 W 以 A/C/G/T 终止。 过程 InexactSearch(W, z) 返回与 W 匹配的子串的 SA 间隔,差异不超过 z(不匹配或间隙); InexRecur(W, i, z, k, l) 在后缀Wi+1匹配区间[k, l]的条件下,递归计算匹配W[0, i]且差异不超过z的子串的SA区间。 以星号开头的行分别用于插入和删除 X。 D(i) 是字符串 W[0, i] 中差异数量的下限。图 3 中的 CalculateD 过程提供了一个更好但不是最佳的界限。 它在概念上与图 4 中描述的相同,后者更易于理解。 使用反向(未补码)参考序列的 BWT 来测试 W 的子串是否也是 X 的子串。请注意,单独使用 BWT 字符串 B 进行此测试将使CalculateD 成为 O ( | W | 2 ) {\textstyle O(|W|^{2})} O(|W|2) 过程 ,而不是图 3 中描述的 O ( | W | ) {\textstyle O(|W|)} 。 CalculateD(W) z ← 0 j ← 0 for i=0 to |W| — 1 do if W[j,i] is not a substring of X then z ← z+1 j ← i+l D(i) ← z 图4:计算 D(i) 的等效算法。 为了理解D的作用,回到在X=GOOGOL$中搜索W=LOL的例子(图1)。如果为所有 i 设置 D(i)=0 并禁止间隙(去除算法中的两条星线),则 InexRecur 的调用图是一棵树,有效地模仿了图 1 中虚线所示的搜索路线. 然而,通过CalculateD,知道D(0)=0 和D(1)=D(2)=1。然后可以避免下降到前缀树中的“G”和“O”子树以获得更小的搜索空间。 图 3 中的算法保证找到所有允许最大 z 差异的区间。理论上是完整的,但在实践中,也做了各种修改。首先,对不匹配、间隙开放和间隙扩展支付不同的惩罚,这对生物数据更现实。其次,使用类似堆的数据结构来保持部分命中而不是使用递归。堆状结构优先于部分命中的对齐分数,以使 BWA 始终首先找到最佳间隔。同时处理反向互补读取序列。请注意,图 3 中描述的递归有效地模拟了前缀树上的深度优先搜索 (DFS),而 BWA 使用这种类似堆的数据结构实现了广度优先搜索 (BFS)。第三,采用迭代策略:如果顶部区间是重复的,默认不搜索次优区间;如果顶部间隔是唯一的并且具有 z 差异,则只搜索最多具有 z + 1 差异的命中。这种迭代策略在保持生成映射质量的能力的同时加速了 BWA。然而,这也使得 BWA 的速度对读取和参考之间的不匹配率敏感,因为找到具有更多差异的命中通常更慢。第四,允许对读取的前几十个碱基对的最大允许差异设置限制,称之为种子序列。给定 70 bp 模拟读数,与 32 bp 种子中最大两个差异的比对比没有种子快 2.5 倍。对齐错误率,即模拟中置信映射中错误对齐的比例(另见 第 2.3.3 节),仅从 0.08% 增加到 0.11%。对于较短的读取,播种效果较差。 上述算法需要在内存中加载出现数组O和后缀数组S。保存完整的 O 和 S 数组需要巨大的内存。幸运的是,可以通过只存储 O 和 S 数组的一小部分并动态计算其余部分来减少内存。 BWT-SW(Lam 等人,2008 年)和 Bowtie(Langmead 等人,2009 年)使用了由 Ferragina 和 Manzini(2000 年)首次引入的类似策略。 给定大小为 n 的基因组,出现数组 O(·, ·) 需要 4 n [ l o g 2 n ] {\displaystyle 4n[log_{2}n]} 位,因为每个整数需要 [ l o g 2 n ] {\displaystyle [log_{2}n]} 位,并且数组中有 4n 个。在实践中,在内存中存储 O(·, k) 的 k 为 128 的因子,并使用 BWT 字符串 B 计算其余元素。当使用两位表示核苷酸时,B 需要 2n 位。因此,用于反向搜索的内存为 2n+n⌈log2n⌉/32 2 n + n [ l o g 2 n ] / 32 {\displaystyle 2n+n[log_{2}n]/32} 位。由于还需要存储反向基因组的 BWT 来计算边界,因此计算间隔所需的内存增加了一倍,或者对于 3 Gb 基因组大约需要 2.3 GB。 枚举每个出现的位置需要后缀数组 S。如果将整个 S 放在内存中,它将使用 n⌈log2n⌉ 位。然而,当知道其中的一部分时,也可以重建整个 S。事实上,S 和逆压缩后缀数组 (inverse CSA) ψ − 1 {\displaystyle \psi ^{-1}} (Grossi and Vitter, 2000) 满足: S ( k ) = S ( ( ψ − 1 ) ( j ) ( k ) ) + j {\displaystyle S(k)=S((\psi ^{-1})^{(j)}(k))+j} (5) 其中 ( ψ − 1 ) ( j ) {\displaystyle (\psi ^{-1})^{(j)}} 表示将变换 ψ − 1 {\displaystyle \psi ^{-1}} 重复应用 j 次。 逆 CSA ψ − 1 {\displaystyle \psi ^{-1}} 可以用出现数组 O 计算: ψ − 1 ( i ) = C ( B [ i ] + O ( B [ i ] , i ) {\displaystyle {\psi ^{-1}}(i)=C(B[i]+O(B[i],i)} (6) 在 BWA 中,只在内存 S(k) 中存储可以被 32 整除的 k。对于不是 32 的因数的 k,重复应用 ψ − 1 {\displaystyle \psi ^{-1}} 直到对于某些 j, ( ψ − 1 ) ( j ) ( k ) {\displaystyle (\psi ^{-1})^{(j)}(k)} 是 32 的因数,然后可以查找 S ( ( ψ − 1 ) ( j ) ( k ) ) {\displaystyle S((\psi ^{-1})^{(j)}(k))} 并且可以使用等式 (5) 计算 S(k)。 总之,比对过程使用 4n+n⌈log2n⌉/8 4 n + n [ l o g 2 n ] / 8 {\displaystyle 4n+n[log_{2}n]/8} 位,或 n 个字节用于小于 4 Gb 的基因组。 这包括原始和反向基因组的 BWT 字符串、部分出现数组和部分后缀数组的内存。 此外,堆、缓存和其他数据结构需要几百兆字节的内存。 read上的非 A/C/G/T 碱基被简单地视为不匹配,这在算法中是隐含的(图 3)。参考基因组上的非 A/C/G/T 碱基被转换为随机核苷酸。这样做可能会导致错误命中充满模糊碱基的区域。幸运的是,鉴于相对较长的读取时间,发生这种情况的可能性非常小。尝试了 200 万个 32 bp 的读数,但没有看到任何读数偶然映射到 poly-N 区域。 BWA 支持双端映射。它首先找到所有好的命中的位置,根据染色体坐标对它们进行排序,然后对所有潜在的命中进行线性扫描以配对两端。计算所有染色体坐标需要经常查找后缀数组。这种配对过程非常耗时,因为使用上述方法即时生成完整的后缀数组非常昂贵。为了加速配对,缓存了大的间隔。此策略将花费在配对上的时间减半。 在配对中,BWA 批量处理 256K 读取对。在每个批次中,BWA 将完整的 BWA 索引加载到内存中,为每次出现生成染色体坐标,从两端映射的映射质量高于 20 的读取对估计插入大小分布,然后将它们配对。之后,BWA 从内存中清除 BWT 索引,加载 2 位编码参考序列,并对未映射的读取执行 Smith-Waterman 对齐,其配偶可以可靠地对齐。 Smith-Waterman 对齐挽救了一些差异过大的读取。 给定长度为 m 的读取,BWA 仅容忍最多具有 k 个差异(错配或间隙)的命中,其中选择 k 使得 <4% 的 m 长读取和 2% 的统一碱基错误率可能包含大于 k 的差异.使用此配置,对于 15–37 bp 读取,k 等于 2;对于 38–63 bp,k=3;对于 64–92 bp,k=4;对于 93–123 bp,k=5;对于 124–156 bp 读数,k=6。 对于每个比对,BWA 计算一个映射质量分数,这是比对不正确的 Phred 标度概率。该算法与 MAQ 相似,不同之处在于在 BWA 中假设总能找到真正的命中。进行此修改是因为知道 MAQ 的公式高估了错过真正命中的概率,从而导致低估了映射质量。模拟表明,由于这种修改,BWA 可能会高估映射质量,但偏差相对较小。例如,BWA 在映射质量为 60 的 1 569 108 个模拟 70 bp 读数中错误地对齐了 11 个读数。这些 Q60 映射的错误率 7 × 10−6 (= 11/1 569 108) 高于理论预期 10-6。 对于 SOLiD 读取,BWA 将参考基因组转换为二核苷酸“颜色”序列,并为颜色基因组构建 BWT 索引。读取被映射在颜色空间中,其中序列的反向补码与反向相同,因为颜色的补码是它本身。对于SOLiD配对末端作图,如果两种情况中的任何一种为真,则称读数对处于正确的方向:(i)两端都映射到基因组的正向链,其中R3读数具有较小的坐标; (ii) 两端映射到基因组的反向链,F3 读数具有较小的坐标。 Smith-Waterman 对齐也在色彩空间中完成。 比对后,BWA 使用动态编程将颜色读取序列解码为核苷酸序列。给定核苷酸参考子序列 b 1 b 2 . . . b l + 1 {\displaystyle b_{1}b_{2}...b_{l+1}} 和映射到该子序列的颜色读取序列 c 1 c 2 . . . c l {\displaystyle c_{1}c_{2}...c_{l}} ,BWA 推断出核苷酸序列 b ^ 1 b ^ 2 . . . b ^ l + 1 {\displaystyle {\hat {b}}_{1}{\hat {b}}_{2}...{\hat {b}}_{l+1}} 。 ∑ i = 1 l + 1 q ′ ⋅ ( 1 − δ b ^ i , b i ) + ∑ i = 1 l q i [ 1 − δ c ^ i , g ( b ^ i , b ^ i + 1 ) ] {\displaystyle \textstyle \sum _{i=1}^{l+1}\displaystyle q^{\prime }\cdot (1-\delta _{{\hat {b}}_{i},b_{i}})+\textstyle \sum _{i=1}^{l}\displaystyle q_{i}[1-\delta _{{\hat {c}}_{i},g({\hat {b}}_{i},{\hat {b}}_{i+1})}]} 其中 q' 是突变的 Phred 标度概率,qi 是颜色 ci 的 Phred 质量,函数 g(b, b')=g(b', b) 给出对应于两个相邻核苷酸 b 和 b' 的颜色。本质上,如果 b i ≠ b ^ i {\displaystyle b_{i}\neq {\hat {b}}_{i}} ,将支付惩罚 q′。和一个惩罚 qi 如果 c i ≠ g ( b ^ i , b ^ i + 1 ) {\displaystyle c_{i}\neq g({\hat {b}}_{i},{\hat {b}}_{i+1})} 。 这种优化可以通过动态编程来完成,因为超出位置 i 的最佳解码仅取决于选择 b ^ i {\displaystyle {\hat {b}}_{i}} 。 Let f i ( b ^ i ) {\displaystyle f_{i}({\hat {b}}_{i})} 是达到 i 的最佳解码分数。 迭代方程为 f 1 ( b ^ 1 ) = q ′ ⋅ ( 1 − δ b ^ i , b i ) {\displaystyle f_{1}({\hat {b}}_{1})=q^{\prime }\cdot (1-\delta _{{\hat {b}}_{i},b_{i}})} f i + 1 ( b ^ i + 1 ) = m i n b ^ i { f i ( b ^ i ) + q ′ ⋅ ( 1 − δ b ^ i + 1 , b i + 1 ) + q i ⋅ [ 1 − δ c i , g ( b ^ i , b ^ i + 1 ) ] } {\displaystyle f_{i+1}({\hat {b}}_{i+1})=min_{{\hat {b}}_{i}}\left\{f_{i}({\hat {b}}_{i})+q^{\prime }\cdot (1-\delta _{{\hat {b}}_{i+1},b_{i+1}})+q_{i}\cdot [1-\delta _{c_{i},g({\hat {b}}_{i},{\hat {b}}_{i+1})}]\right\}} BWA 近似基本质量如下。 Let 一个包含图片、插图等的外部文件。 对象名称是 btp324i11.jpg c i = g ( b ^ i , b ^ i + 1 ) {\displaystyle c_{i}=g({\hat {b}}_{i},{\hat {b}}_{i+1})} 。 第 i 个基本质量 q ^ i {\displaystyle {\hat {q}}_{i}} ,i=2…l,计算如下: f ( n ) = { q i − 1 + q i if  c i − 1 = c ^ i − 1  and  c i = c ^ i q i − 1 − q i if  c i − 1 = c ^ i − 1  but  c i ≠ c ^ i q i − q i − 1 if  c i = c ^ i  but  c i − 1 ≠ c ^ i − 1 0 otherwise {\displaystyle f(n)={\begin{cases}q_{i-1}+q_{i}&{\text{if }}c_{i-1}={\hat {c}}_{i-1}{\text{ and }}c_{i}={\hat {c}}_{i}\\q_{i-1}-q_{i}&{\text{if }}c_{i-1}={\hat {c}}_{i-1}{\text{ but }}c_{i}\neq {\hat {c}}_{i}\\q_{i}-q_{i-1}&{\text{if }}c_{i}={\hat {c}}_{i}{\text{ but }}c_{i-1}\neq {\hat {c}}_{i-1}\\0&{\text{otherwise}}\\\end{cases}}} BWA 输出序列 b ^ 2 . . . . b ^ l {\displaystyle {\hat {b}}_{2}....{\hat {b}}_{l}} ,质量为 q ^ 2 . . . . q ^ l {\displaystyle {\hat {q}}_{2}....{\hat {q}}_{l}} 作为 SOLiD 映射的最终结果。 基于参考基因组的 BWT 实现了 BWA 来进行短读比对。 为单端读取执行缺口比对,支持双端比对,生成比对质量并在需要时提供多次命中。 默认的输出对齐格式是 SAM(序列比对/映射格式)。 可以使用 SAMtools (http://samtools.sourceforge.net) 来提取区域中的比对、合并/排序比对、获得单核苷酸多态性 (SNP) 和 indel 调用并可视化比对。 文档和源代码可在 MAQ 网站免费获得:http://maq.sourceforge.net。 为了评估 BWA 的性能,测试了另外三个比对程序:MAQ(Li 等人,2008a)、SOAPv2(http://soap.genomics.org.cn)和 Bowtie(Langmead 等人,2009 年)。 MAQ 索引使用哈希表read并扫描基因组,是之前为大规模read比对开发的软件包。 SOAPv2 和 Bowtie 是另外两个基于 BWT 的短读比对软件。最新的 SOAP-2.1.7(Li 等人,未公开数据)使用 2way-BWT(Lam 等人,未公开数据)进行对齐。可以接收超过 35 bp 种子序列的更多错配,并支持仅限于一个缺口开放的缺口比对。 Bowtie(版本 0.9.9.2)部署了与 BWA 类似的算法,并没有通过用 D(i) 限制搜索来减少搜索空间,而是通过巧妙地对原始和反向读取序列进行对齐以绕过对前缀树的根进行不必要的搜索。默认情况下,Bowtie 对前缀 trie 执行 DFS,并在找到第一个符合条件的命中时停止。因此,即使其播种策略被禁用,它也可能会错过最佳的不精确命中。可以通过在命令行应用“--best”来使 Bowtie 执行 BFS,但这会使 Bowtie 变慢。 包括 BWA 在内的所有四个程序都会在多个同样最佳的位置上随机放置重复读取。由于主要对实践中的置信比对感兴趣,因此需要排除重复命中。 SOAPv2 给出读取的同等最佳命中数。仅保留唯一映射。还要求 SOAPv2 将可能的间隙大小限制为最多 3 bp。使用命令行选项“--best -k 2”运行 Bowtie,使 Bowtie 输出读取的前两个命中。如果第二个最佳命中包含与最佳命中相同数量的不匹配,则丢弃读取对齐。 MAQ 和 BWA 生成映射质量。使用 MAQ 的比对质量阈值 1 和 BWA 的 10 来确定可信映射。使用不同的阈值是因为知道 MAQ 的映射质量被低估了,而 BWA 的映射质量被高估了。 使用 SAMtools 包中包含的 wgsim 程序模拟来自人类基因组的读数,并运行四个程序将读数比对回人类基因组。 由于知道每个read的确切坐标,能够计算比对错误率。 表 1 显示 BWA 和 MAQ 实现了相似的比对精度。 在可信映射读取的比例和可信映射的错误率方面,BWA 比 Bowtie 和 SOAPv2 更准确。 请注意,SOAP-2.1.7 针对长度超过 35 bp 的读取进行了优化。 对于 32 bp 读取,SOAP-2.0.1 优于最新版本。 在速度上,SOAPv2 是最快的,如果禁用间隙对齐,双端映射实际上会快 30-80%。带有默认选项(数据未显示)的 Bowtie 比单端映射上的当前设置“–best -k 2”快几倍。但是,速度的提高是以牺牲准确性为代价的。例如,使用默认选项,Bowtie 可以在 151 秒内映射 200 万个单端 32 bp 读数,但 6.4% 的置信映射是错误的。这种高对齐错误率可能会使结构变异的检测复杂化,并可能影响 SNP 的准确性。在 BWA 和 MAQ 之间,BWA 快 6–18 倍,具体取决于读取长度。 MAQ 的速度不受读取长度的影响,因为它在内部将所有读取视为 128 bp。通过不检查类似于 Bowtie 和 SOAPv2 所做的次优命中,可以加速 BWA。然而,在这种情况下,计算映射质量是不可能的,相信生成适当的映射质量对各种下游分析有用,例如检测结构变化。 在内存上,SOAPv2 使用 5.4 GB。 Bowtie 和 BWA 都使用 2.3 GB 用于单端映射,大约 3 GB 用于双端映射,比 MAQ 的内存占用 1 GB 大。然而,所有三个基于 BWT 的对齐器的内存使用与要对齐的读取数量无关,而 MAQ 在其中是线性的。此外,所有基于 BWT 的对齐器都支持多线程,这减少了多核计算机上每个 CPU 内核的内存。在现代计算机服务器上,内存不是基于 BWT 的对齐器的实际问题。 为了评估真实数据的性能,从欧洲读取档案 (AC:ERR000589) 下载了大约 1220 万对 51 bp 读取。 这些读数由 Illumina 为 NA12750 生成,NA12750 是 1000 基因组计划 (http://www.1000genomes.org) 中的一个男性。 读数被映射到人类基因组 NCBI build 36。表 2 显示几乎所有来自 MAQ 和 BWA 的可信比对都以一致的对存在,尽管 MAQ 给出的可信比对较少。 较慢的 BWA 模式(无种子;即使最高命中是重复也搜索次优命中)效果更好。 在该模式下,BWA 在 6.3 小时内自信地映射了所有读数的 89.2%,并以一致对的方式准确映射了 99.2%。 在这个实验中,如果间隙对齐被禁用,SOAPv2 的速度将提高两倍,置信度映射 (Conf) 和配对百分比 (Paired) 均下降 1%。相比之下,BWA 仅执行无间隙对齐时的速度是它的 1.4 倍。但即使禁用了基于 BWT 的缺口比对,BWA 仍然能够通过 Smith-Waterman 比对恢复许多短插入缺失,给出配对末端读数。 还获得了鸡基因组序列(2.1 版),并将这 1220 万个读取对与人鸡杂交参考序列进行比对。与纯人类对齐相比,置信度映射百分比几乎没有变化。至于映射到鸡基因组的读取数,Bowtie 将 2640、BWA 2942、MAQ 3005 和 SOAPv2 映射到错误的基因组的读取数为 4531。如果考虑鸡序列占人鸡杂交参考的四分之一,则 BWA 的比对错误率约为 0.06%(=2942×4/12.2M/0.889)。请注意,这种比对错误率的估计可能会被低估,因为错误比对的人类read往往与人类的重复序列相关,并比对回人类序列。由于存在高度保守的序列和人类组装不完整或鸡基因组组装错误,估计也可能被高估。 如果想要更少的错误,BWA 和 MAQ 生成的映射质量允许选择精度更高的对齐。如果将确定 BWA 的置信命中的比对质量阈值提高到 25,则 86.4% 的读数可以与比对到鸡基因组的 1927 个读数可靠地对齐,在百分比置信映射和比对到的读数数量方面均优于 Bowtie错误的基因组。 对于与人类参考基因组的短读比对,BWA 比 MAQ 快一个数量级,同时实现相似的比对精度。它支持单端读取的间隙对齐,当读取变得更长并且倾向于包含插入缺失时,这一点变得越来越重要。 BWA 以 SAM 格式输出对齐,以利用 SAMtools 中实施的下游分析。 BWA 加 SAMtools 提供了 MAQ 包的大部分功能和附加功能。 与速度、内存和比对读取的数量相比,在真实数据上评估对齐精度要困难得。本文使用了三个标准来评估比对软件的准确性。第一个标准只能用模拟数据进行评估,它是置信比对数量和置信比对中比对错误率的组合。请注意,仅可信比对的数量可能不是一个好的标准:可以以牺牲准确性为代价比对更多。第二个标准是比对read的数量和比对成一致对的read数量的组合,它适用于真实数据,假设来自实验的交配信息是正确的,并且结构变异很少。尽管此标准与比对软件定义配对“一致性”的方式有关,但根据经验,如果配对参数设置正确,则具有很高的信息量。第三个标准是如果有意添加来自不同物种的参考序列,read比对到错误参考序列的比例。 虽然理论上 BWA 适用于任意长的读取,但它的性能在长read上会下降,尤其是在测序错误率很高的情况下。此外,BWA 总是需要比对完整的read,从第一个碱基到最后一个(即相对于read的全局比对),但较长的read更有可能被参考基因组中的结构变异或错误组装中断,这将BWA 失败。对于长读段,可能更好的解决方案是将读段分成多个短片段,用上述算法分别比对片段,然后加入部分比对以获得读段的完整比对。 BWA-SW 为参考序列和查询序列构建 FM 索引。它隐含地表示前缀树中的参考序列,并表示前缀有向无环词图(前缀 DAWG;Blumer 等人,1985)中的查询序列,该图是从查询序列的前缀树转换而来的(算法图)。通过分别遍历参考前缀 trie 和查询 DAWG,可以在 trie 和 DAWG 之间应用动态编程。如果不应用启发式算法,这种动态编程将找到所有本地匹配项,但不会比 BWT-SW 快。在 BWA-SW 中,应用了两个启发式规则来大大加速这个过程。首先,查询 DAWG 上的遍历是在外循环中进行的,因此在不完成动态规划的情况下,知道参考前缀树中所有与查询节点匹配且得分为正的节点。基于对真实对齐往往具有高对齐分数的观察,可以在每个节点上修剪低分数匹配以限制仅围绕良好匹配的动态规划。动态规划的规模因此可以显着减少。在这个过程中可能会修剪真正的比对,但实际上,这可以通过使用启发式方法来控制,并且很少发生,因为给定长或高质量的查询序列。其次,BWA-SW 只报告在查询序列上基本上不重叠的比对,而不是给出所有重要的局部比对。它启发式地识别并丢弃包含在较长对齐中的种子,从而节省不成功种子扩展的计算时间。 设 Σ={A, C, G, T} 是核苷酸字母表,$ 是一个在字典上比 Σ 中的所有符号都小的符号。 给定一个核苷酸序列 X=a1…an−1 和 an−1=$,让 X[i]=ai 是第 i 个符号,X[i, j]=ai…aj 是 X 和 Xi=X 的子序列 [i, n−1] X 的后缀。 X 的后缀数组 S 是整数 0,..., n−1 的排列,使得 S(i)=j 当且仅当 Xj 是第 i 个字典序最小的 后缀。 X 的 BWT 是 X 的排列,如果 S(i)=0,则 B[i]=$,否则 B[i]=X[S(i)−1]。 给定一个序列 W,后缀数组 interval 或 SA interval [ R _ ( W ) , R ¯ ( W ) ] {\textstyle [{\underline {R}}(W),{\overline {R}}(W)]} 的 W 定义为 R _ ( W ) = m i n { k : W   i s   t h e   p r e f i x   o f   X S ( k ) } {\displaystyle {\underline {R}}(W)=min\left\{k:W\ is\ the\ prefix\ of\ X_{S(k)}\right\}} R ¯ ( W ) = m a x { k : W   i s   t h e   p r e f i x   o f   X S ( k ) } {\displaystyle {\overline {R}}(W)=max\left\{k:W\ is\ the\ prefix\ of\ X_{S(k)}\right\}} 后缀数组间隔和序列比对 不精确匹配:有界遍历/回溯 后缀数组 S、数组 C 和 O 足以在 X 中精确搜索模式。 FM-index (Ferragina and Manzini, 2000) 是三个数组的压缩表示,由压缩的 BWT 字符串 B、计算 O 和后缀数组 S 的一部分。然而,BWA-SW 使用简化的 FM 索引,其中不压缩 B 并在没有辅助数据结构的情况下存储部分出现数组 O。简化版本对于字母表非常小的 DNA 序列更有效。之前的论文 (Li and Durbin, 2009) 中介绍了有关构造的详细信息。 对齐是一个元组 (W1, W2, A),其中 W1 和 W2 是两个字符串,A 是一系列将 W2 转换为 W1 的复制、替换、插入和删除操作。插入和删除是间隙。差距和替代是差异。对齐的编辑距离等于 A 中差异的总数。 可以为给定评分系统的比对计算分数。如果 W1 和 W2 可以与正分数对齐,说 W1 匹配 W2,在这种情况下,也说 (W1, W2) 是匹配的。 如果 W1 是 W'1 的子串,则称匹配 (W1, W2) 包含在第一个序列的 (W'1, W'2) 中。同样,可以定义比对(更强的条件)之间以及比对和匹配之间的“包含”关系。 字符串 X 的前缀 trie 是一棵树,每条边都标有一个符号,这样从叶子到根的路径上的符号串联给出了唯一的 X 前缀。 从节点到根的边符号串联为 总是 X 的子串,称为节点所代表的串。 节点的SA区间定义为该节点所代表的字符串的SA区间。 不同的节点可能有相同的区间,但是回顾SA区间的定义,知道这些节点所代表的字符串一定是同一个字符串的前缀,长度不同。 X 的前缀 DAWG 通过折叠具有相同间隔的节点从前缀 trie 转换而来。 因此,在前缀 DAWG 中,节点和 SA 区间具有一一对应的关系,并且一个节点可能代表 X 的多个子串,落入序列中,其中每个子串都是下一个的前缀,如前一段所述。 图 1 给出了一个例子。 为查询序列 W 构建了一个前缀 DAWG 𝒢(W),为参考 X 构建了一个前缀 trie 𝒯(X)。用于计算 W 和 X 之间的最佳分数的动态规划如下。 当u是𝒢(W)的根,v是𝒯(X)的根时,设Guv=Iuv=Duv=0。 在 𝒢(W) 中的节点 u,对于它的每个父节点 u′,计算 I u v | u ′ = m a x { I u ′ v , G u ′ v − q } − r {\displaystyle I_{uv|u^{\prime }}=max\left\{I_{u^{\prime }v},G_{u^{\prime }v}-q\right\}-r} D u v | u ′ = m a x { D u v ′ , G u v ′ − q } − r {\displaystyle D_{uv|u^{\prime }}=max\left\{D_{uv^{\prime }},G_{uv^{\prime }}-q\right\}-r} G u v | u ′ = m a x { G u ′ v ′ + S ( u ′ , u ; v ′ , v ) , I u ′ v ′ , D u ′ v ′ , 0 } − r {\displaystyle G_{uv|u^{\prime }}=max\left\{G_{u^{\prime }v^{\prime }}+S(u^{\prime },u;v^{\prime },v),I_{u^{\prime }v^{\prime }},D_{u^{\prime }v^{\prime }},0\right\}-r} 其中 v′ 是 𝒯(X) 中 v 的父级,函数 S(u′, u; v′, v) 给出边上的符号 (u′, u) 和边上的符号 (v′, v) 和 q 和 r 分别是间隙开放和间隙扩展惩罚。 Guv、Iuv 和 Duv 的计算公式为: u ∗ = a r g m a x u ′ ∈ pre ( u ) G u v | u ′ {\displaystyle u^{*}=argmax_{u^{\prime }\in {\text{pre}}(u)}G_{u}v|u^{\prime }} ( G u v , I u v , D u v ) = { ( G u v | u ∗ , I u v | u ∗ , D u v | u ∗ ) G u v | u ∗ > 0 ( − ∞ , − ∞ , − ∞ ) otherwise {\displaystyle (G_{uv},I_{uv},D_{uv})={\begin{cases}(G_{uv|u^{*}},I_{uv|u^{*}},D_{uv|u^{*}})&G_{uv|u^{*}}>0\\(-\infty ,-\infty ,-\infty )&{\text{otherwise}}\end{cases}}} 其中 pre(u) 是 u 的父节点集。 Guv 等于 u 表示的(可能是多个)子串与 v 表示的(一个)子串之间的最佳分数。如果 Guv>0,说节点 v 与 u 匹配。 动态规划是通过以反向后序(即所有父节点在子节点之前访问)以嵌套方式遍历𝒢(W) 和 𝒯(X) 来执行的。 注意到一旦u不匹配v,u不匹配v的任何节点,只需要访问靠近𝒯(X)根节点的节点,无需遍历整个trie,相比之下大大减少了迭代次数 到标准的 Smith-Waterman 算法,该算法总是通过整个参考序列。 与时间复杂度为 O(|X|·|W|) 的标准 Smith-Waterman 对齐相比,BWA-SW 具有更好的时间复杂度,因为它并不比时间复杂度为 O(|X|0.628|W|) 的 BWT-SW 慢。(Lam 等人,2008 年)。这个结论是因为对于短序列比对,正在考虑多个可能的匹配与单个 uv 比较。然而,由于与遍历前缀 trie 和前缀 DAWG 相关的复杂步骤,与每次迭代相关的常数要大得多,这使得当使用 BWA-SW 扩展唯一对齐时 BWA-SW 效率低下。更有效的策略是使用 BWA-SW 查找部分匹配并应用 Smith-Waterman 算法进行扩展。在动态规划中,知道在任何对中考虑的部分匹配的数量,因为这可以从 SA 间隔的大小计算。当Guv足够好并且v的SA区间大小低于某个阈值(默认为3)时,保存(u,v)对,称为种子区间对,不要从𝒯中的v节点往更深处(X)。通过查找 X 和 W 的后缀数组,可以从种子间隔对中导出种子匹配,或简称为种子。这些种子随后由 Smith-Waterman 算法扩展。如果整个查询是一个高度重复的序列,它将完全按照上一节中描述的算法进行对齐,而不使用 Smith-Waterman 扩展。 因为提前停止动态编程以生成种子,全局最佳对齐可能包含多个种子,实际上这往往是长对齐的情况。通常对于 1 kb 比对,将有 10-20 个种子。下面将利用这一观察结果启发式地加快搜索速度。 BWT-SW 部署了类似的策略,在序列和前缀尝试之间执行动态编程以查找种子匹配,然后是 Smith-Waterman 扩展。与的算法的主要区别在于,无论 SA 间隔大小如何,一旦分数足够高,BWT-SW 就会启动 Smith-Waterman 对齐。有时,重复序列可能与人类基因组中的数千个位置匹配,每次扩展部分匹配可能很慢。 到目前为止描述的算法是精确的,因为它能够提供与 Smith-Waterman 算法相同的结果。虽然在给定长参考序列的情况下,它比标准算法快得多,但对于比对大规模测序数据还不够快。更仔细的调查表明,即使对于唯一的 500 bp 查询序列,𝒯(X) 中的几百万个节点也可能与具有正比对分数的查询匹配。这些节点中的大多数是随机匹配或在短的低复杂度区域中匹配。参观所有这些都是浪费。 为了加速对齐,在外循环中遍历𝒢(W),在内循环中遍历𝒯(X),并且在𝒢(W) 中的每个节点u 处,只保留𝒯(X) 中匹配的前Z 个最佳得分节点u,而不是保留所有匹配的节点。这种启发式策略称为 Z-best。当然,当应用 Z-best 策略时,当错误匹配具有更高的分数时,可能会错过包含在真实对齐中的种子。但是,如果查询与引用几乎相同,则这种情况发生的频率较低。另外,如果真对齐很长并且包含很多种子,那么所有种子都是假的可能性很小。在模拟和真实数据(结果部分)中,发现即使 Z=1 也适用于高质量的 200 bp 读数(<5% 测序错误率)。将 Z 增加到 10 或更高会略微提高准确性,但会大大降低对齐速度。 为了减少对齐错误,除了前向对齐之外,还将反向查询序列与反向参考序列对齐,即反向反向对齐。理想情况下,正向-正向和反向-反向对齐应该产生相同的结果,但如果真正对齐中的种子具有低分后缀(或前缀),则正向-正向(或反向-反向)对齐可能会错过它,同时结合两轮对齐减少机会。此外,如果前向对齐中的最佳对齐包含许多种子匹配,则其为假的可能性也很小。在实现中,如果最佳对齐默认包含 5 个或更多种子,则不应用反向-反向对齐。 与 BLAST 一样,BLAT 和 SSAHA2 都报告了所有重要的比对或通常是数十个得分最高的比对,但这并不是读取映射中最需要的输出。通常对覆盖查询序列的每个区域的最佳比对或最好的少数比对更感兴趣。例如,假设一个 1000 bp 的查询序列由来自一条染色体的 900 bp 片段和来自另一条染色体的 100 bp 片段组成; 900 bp 片段中的 400 bp 是高度重复的序列。对于 BLAST,要知道这是一个嵌合读取,需要要求它报告 400 bp 重复的所有比对,这既昂贵又浪费,因为通常对包含在更长的唯一序列中的短重复序列的比对不感兴趣序列。在这个例子中,一个有用的输出是分别报告 900 bp 和 100 bp 片段的一个比对,并指出这两个片段是否有可能使最佳比对不可靠的次优比对。这样的输出简化了下游分析并节省了重建重复序列的详细比对的时间。 在 BWA-SW 中,如果查询上重叠区域的长度小于较短查询段长度的一半,就说两个对齐是不同的。的目标是找到一组不同的对齐方式,使集合中每个对齐方式的分数总和最大化。这个问题可以通过动态编程解决,但在的例子中,读取通常是完全对齐的,贪婪的近似会很好地工作。在实际实现中,根据对齐分数对局部对齐进行排序,从最好的一个扫描排序列表,如果它与所有保留的分数较大的对齐不同,则保留一个对齐;如果对齐 a2 被拒绝,因为它与 a1 没有区别,认为 a2 是 a1 的次优对齐,并使用此信息来近似映射质量。 因为只保留在查询序列上基本不重叠的比对,所以不妨丢弃对最终比对没有贡献的种子。可以在 Smith-Waterman 扩展之前使用另一种启发式方法检测此类种子,从而可以节省花费在不必要扩展上的时间。为了识别这些种子,将包含在条带中的种子链接起来(默认条带宽度为 50 bp)。如果在查询序列上,一条短链完全包含在一条长链中,并且短链中的种子数低于长链中种子数的十分之一,将丢弃短链中的所有种子,基于观察到在这种情况下,短链很少能比长链产生更好的对齐。与 Z-best 策略不同,这种启发式对对齐精度没有明显影响。在 1000 个 10 kb 模拟数据上,它将运行时间减半,而不会降低精度。 Li,H。 等。 (2008) 引入了映射质量的概念来估计查询序列被放置在错误位置的概率。 如果对齐算法保证找到所有局部对齐,则映射质量仅由这些局部对齐决定。 然而,随着 BWA-SW 部署启发式规则,产生错误对齐的机会也与启发式有关。 为了估计 BWA-SW 比对的映射质量,拟合了一个经验公式:250·c1·c2·(S1−S2)/S1,其中 S1 是最佳比对的得分,S2 是次优比对的得分 ,如果对齐覆盖超过四个种子,则 c1 等于 1,否则为 0.5,如果通过正向-正向和反向-反向对齐找到最佳对齐,则 c2 等于 1,否则为 0.2。 BWA-SW 算法是作为 BWA 程序(Li 和 Durbin,2009)的一个组件实现的,该程序在 GNU 通用公共许可证 (GPL) 下分发。该实现将 BWA 索引和查询 FASTA 或 FASTQ 文件作为输入,并以 SAM 格式输出对齐(Li et al., 2009)。查询文件通常包含许多序列(读取)。依次处理每个查询序列,如果适用,使用多个线程。内存使用由 FM-index 主导,人类基因组约为 3.7 GB。每个查询所需的内存大致与序列长度成正比。在典型的测序读取中,总内存小于 4 GB;在一个具有 100 万个碱基对 (Mbp) 的查询序列上,峰值内存总共为 6.4 GB。 在实现中,尝试根据读取长度和测序错误率自动调整参数,使默认设置适用于不同特征的输入。这种行为对于不熟悉算法的用户来说很方便,并且有助于提高读取长度和错误率混合的性能。 在模拟数据上,从比对中知道正确的染色体坐标,并且评估很简单。 表 1 显示了给定不同读取长度和错误率的 BLAT(v34)、BWA-SW(版本 0.5.3)和 SSAHA2(版本 2.4)的 CPU 时间、可靠对齐读取的分数和对齐错误率。 除非必要,尝试使用每个对齐器的默认命令行选项。 根据输入数据的特征微调选项可能会产生更好的性能。 从表 1 可以看出,BWA-SW 显然是最快的,在所有输入上都比 BLAT 和 SSAHA2 快几倍,并且其速度对读取长度或错误率不敏感。当查询较长或错误率较低时,BWA-SW 的准确率与 SSAHA2 相当。鉴于短且容易出错的读取,SSAHA2 更准确,尽管它必须花费更多时间来对齐此类读取。 SSAHA2 未在 10 kb 读取上进行测试,因为它最初不是为此任务设计的,因此性能不佳。带有 -fastMap 选项的 BLAT 比 SSAHA2 快,但精度较低。在默认选项下,BLAT 比 SSAHA2 慢几到几十倍。与 -fastMap 模式相比,精度更高,但总体上仍低于 BWA-SW(数据未显示)。 在内存上,BWA-SW 和 BLAT 都使用 ∼4 GB 内存。 SSAHA2 使用 2.4 GB 使用默认选项进行≥500 bp 的读取,使用 5.3 GB 使用 -454 选项进行更短的读取,这会增加哈希表中存储的种子序列的数量并因此增加内存。此外,BWA-SW 支持多线程,因此如果在多核计算机上运行,​​每个 CPU 内核可能占用更少的内存。 SSAHA2 和 BLAT 目前不支持多线程。 首先研究给定嵌合读数的每个对准器的行为。为此,制作了两个嵌合读数,它们都由一个染色体位置的 1000 bp 片段和另一个位置的 300 bp 片段组成。两次读取之间的主要区别在于,第二次读取中的 1000 bp 片段具有~750 bp 的重复序列,而第一次读取是高度独特的。当将两个嵌合读数与人类基因组进行比对时,BWA-SW 会根据需要报告四种比对,每个片段一个。最新的 SSAHA2 无法在两个读取中找到 300 bp 片段的对齐,尽管如果将 300 bp 片段作为单独读取对齐,它能够找到对齐。默认情况下,旧版本 (1.0.9) 能够在第一次读取中对齐 300 bp 片段,但对于第二次读取,需要切换到更彻底但速度更慢的配置,将所有命中报告到 750 bp重复。带有 -fastMap 的 BLAT 没有找到第二次读取的 300 bp 片段的对齐。在这两个例子中,只有 BWA-SW 有足够的能力来检测嵌合体。 此外,BWA-SW 很少产生高质量的假嵌合比对。例如,假设 10 000 1 kb 读数有 10% 的错误但在模拟中没有嵌合体,BWA-SW 预测 18 个嵌合读数。这些读取上错误对齐的片段的映射质量仅为 2.4(最大 11),这意味着 BWA-SW 意识到这些嵌合体是不可靠的。正如预期的那样,由于碱基错误较低,BWA-SW 产生的假嵌合读数较少。 由于缺乏基本事实,对真实数据的评估变得复杂。然而,仍然可以通过比较两个对齐器的结果来评估相对准确性,使用真实对齐往往具有相当高的对齐分数的原则,因为大多数错误是由于未能找到种子而产生的。 假设使用两个对齐器 A 和 B 对齐读取并得到不同的结果。如果 A 和 B 都给出低映射质量,则对齐是不明确的,并且任何对齐是否错误都无关紧要。如果 A 的映射质量很高,而 A 的对齐分数比 B 差,则 A 对齐可能是错误的;即使A对齐分数比B好一点,A对齐也不可靠,A给出的高映射质量仍然值得怀疑。实际上,定义“稍微好一点”的对齐分数需要对分数差异设置任意阈值,因此这种评估方法是近似的。 表 2 汇总了 454 个读数,这些读数仅由一个比对器映射或映射到不同位置,并且被 BWA-SW 或 SSAHA2 指定的映射质量大于或等于 20。可以看到 BWA-SW 往往会错过高错误率的短对齐(其中 946 个),这与对模拟数据的评估一致。 SSAHA2 由于不同的原因错过了对齐。在 1188 次读取中,SSAHA2 产生明显错误的比对。通过分配低映射质量意识到这些对齐是错误的,但无论如何都错过了真正的对齐。 对于这两个比对器,大多数错误对齐是由于忽略了与最佳报告对齐具有相似分数的对齐。例如,SSAHA2 将读取 SRR003161.1261578 与映射质量为 244 的 X 染色体对齐,而 BWA-SW 将其与具有相同对齐长度和编辑距离的 2 号染色体对齐。两个最佳评分比对的存在意味着无法唯一放置读取,并且高达 244 的映射质量是不准确的。 SSAHA2 提供这种高映射质量可能是因为它忽略了染色体 2 上的匹配。在这个特定示例中,BWA-SW 正确地给出了一个映射质量为零,尽管它可能会忽略其他示例中的替代匹配。 在模拟的 100 和 200 bp 读数上,带有 -454 选项的 SSAHA2 比 BWA-SW 提供更好的比对。在这个真实的数据集上,BWA-SW 更准确,可能是因为平均读取长度相对较长(355 bp)。为了证实这一推测,比较了来自运行 SRR002644 的 99 958 个读数的两个对齐器,平均读数长度为 206 bp。这次 BWA-SW 错过了 1092 个 SSAHA2 Q20 比对,并产生了 39 个有问题的比对; SSAHA2 漏掉了 325 个,产生了 10 个有问题的。 SSAHA2 在这个较短的数据集上更准确,尽管它比 BWA-SW 慢 9 倍,并且使用的内存多 40%。 BWA-SW 是一种有效的算法,用于将几百个或更多碱基对的查询序列与长参考基因组进行比对。对于长查询或低错误率的查询,其敏感性和特异性往往更高,并且在此类查询序列上,BWA-SW 的准确性可与迄今为止最准确的对齐器相媲美。此外,BWA-SW 能够检测可能由结构变化或参考错误组装引起的嵌合体,这可能对 BLAT 和 SSAHA2 构成挑战。 BWA-SW、BLAT 和 SSAHA2 都遵循种子和扩展范式。主要区别来自播种策略。 BLAT 和 SSAHA2 将短精确匹配识别为种子,通常长度为 11 或 12 bp。对于分别在长度为 L 和 l 的两个序列之间的 k-mer 种子,种子的预期数量为 L·l/4k,或者是 105 的数量级,用于与人类基因组的比对。用 Smith-Waterman 算法扩展这些种子是很昂贵的。为了减少不必要的种子扩展,BLAT 和 SSAHA2 默认都使用不重叠的种子,并且需要多个种子匹配,这对于随机序列应该可以很好地工作,但仍然涉及高度重复区域中的许多种子扩展。 BWA-SW 通过在独特区域使用一些长间隙种子解决了这个问题。在真实的生物数据上,它节省了许多不必要的种子扩展,并带来了更好的整体性能。然而,为了减少识别长种子的时间,BWA-SW 只保留了动态规划矩阵的一小部分,这可能会错过所有真正匹配的种子。这种启发式是对齐错误的主要来源,特别是对于短查询,当要对齐的序列之间只有很少的有效唯一种子时。幸运的是,在长对齐上,丢失所有种子的可能性很小。已经证明 BWA-SW 与 SSAHA2 一样有效。 BWA-SW 在几个方面与 BWT-SW 不同。首先,BWT-SW 保证找到所有本地匹配,而 BWA-SW 是一种启发式算法,它可能会错过真正的命中,但速度要快得多。其次,BWA-SW 对齐两个 FM 索引,而 BWT-SW 对齐一个序列和一个 FM 索引。为查询序列构建前缀 DAWG 可能有助于避免在查询中重复对齐相同的子字符串,从而提高理论时间复杂度。第三,BWA-SW在内循环中遍历参考前缀trie,而BWT-SW在内循环中遍历查询序列。如果没有启发式方法,BWA-SW 方法会损害性能,因为必须在遍历引用前缀树时用速度换取内存,而在外循环中遍历它会更有效。尽管如此,应用 Z-best 策略需要知道与查询子串匹配的得分最高的参考节点,而无需完成动态规划,因此仅在内部循环中遍历参考时才有效。第四,BWA-SW 只报告与查询序列基本不重叠的比对,而 BWT-SW 与 BLAST 一样,报告所有具有统计意义的比对。 BWA-SW 保留了对齐的关键信息,并生成更小更方便的输出。对于 BWT-SW,最终用户通常需要对结果进行后处理,以过滤掉许多他们不感兴趣的对齐方式。总而言之,鉴于大规模真实数据,BWA-SW 被调整为具有实际实用性。 BWA-SW 的高速主要来自两种策略:使用 FM 索引和抑制包含在更好匹配中的短重复匹配。虽然第一种策略不适用于基于哈希表的算法,例如 SSAHA2 和 BLAT,但第二种策略可以在此类程序中实现,并且可以通过节省大量构建重复对齐的时间来显着加速它们。虽然 BWT 的使用减少了重复中不必要的对齐,但与哈希表查找相比,每个 BWT 操作都带有一个很大的常量。如果基于哈希表的算法结合了其中的一些功能,那么它们仍有可能比 BWA-SW 更快。 Altschul SF, et al. Gapped BLAST and PSI-BLAST: a new generation of protein database search programs. Nucleic Acids Res. 1997;25:3389–3402. [PMC free article] [PubMed] [Google Scholar] Blumer A, et al. The smallest automaton recognizing the subwords of a text. Theor. Comput. Sci. 1985;40:31–55. [Google Scholar] Burrows M, Wheeler DJ. Technical report 124. Palo Alto, CA: Digital Equipment Corporation; 1994. A block-sorting lossless data compression algorithm. [Google Scholar] Campagna D, et al. PASS: a program to align short sequences. Bioinformatics. 2009;25:967–968. [PubMed] [Google Scholar] Eaves HL, Gao Y. MOM: maximum oligonucleotide mapping. Bioinformatics. 2009;25:969–970. [PubMed] [Google Scholar] Eid J, et al. Real-time DNA sequencing from single polymerase molecules. Science. 2009;323:133–138. [PubMed] [Google Scholar] Ferragina P, Manzini G. Proceedings of the 41st Symposium on Foundations of Computer Science (FOCS 2000) IEEE Computer Society; 2000. Opportunistic data structures with applications; pp. 390–398. [Google Scholar] Ferragina P, Manzini G. Proceedings of the 41st Symposium on Foundations of Computer Science (FOCS 2000) Redondo Beach, CA, USA: 2000. Opportunistic data structures with applications; pp. 390–398. [Google Scholar] Grossi R, Vitter JS. Proceedings on 32nd Annual ACM Symposium on Theory of Computing (STOC 2000) ACM; 2000. Compressed suffix arrays and suffix trees with applications to text indexing and string matching; pp. 397–406. [Google Scholar] Hon W.-K, et al. A space and time efficient algorithm for constructing compressed suffix arrays. Algorithmica. 2007;48:23–36. [Google Scholar] Jiang H, Wong WH. SeqMap: mapping massive amount of oligonucleotides to the genome. Bioinformatics. 2008;24:2395–2396. [PMC free article] [PubMed] [Google Scholar] Jung Kim Y, et al. ProbeMatch: a tool for aligning oligonucleotide sequences. Bioinformatics. 2009;25:1424–1425. [PMC free article] [PubMed] [Google Scholar] Kent WJ. BLAT–the BLAST-like alignment tool. Genome Res. 2002;12:656–664. [PMC free article] [PubMed] [Google Scholar] Lam TW, et al. Compressed indexing and local alignment of DNA. Bioinformatics. 2008;24:791–797. [PubMed] [Google Scholar] Langmead B, et al. Ultrafast and memory-efficient alignment of short DNA sequences to the human genome. Genome Biol. 2009;10:R25. [PMC free article] [PubMed] [Google Scholar] Lin H, et al. ZOOM! Zillions of oligos mapped. Bioinformatics. 2008;24:2431–2437. [PMC free article] [PubMed] [Google Scholar] Lippert RA. Space-efficient whole genome comparisons with Burrows-Wheeler transforms. J. Comput. Biol. 2005;12:407–415. [PubMed] [Google Scholar] Li H, et al. Mapping short DNA sequencing reads and calling variants using mapping quality scores. Genome Res. 2008a;18:1851–1858. [PMC free article] [PubMed] [Google Scholar] Li R, et al. SOAP: short oligonucleotide alignment program. Bioinformatics. 2008b;24:713–714. [PubMed] [Google Scholar] Li H, Durbin R. Fast and accurate short read alignment with Burrows-Wheeler transform. Bioinformatics. 2009;25:1754–1760. [PMC free article] [PubMed] [Google Scholar] Li H, et al. The Sequence Alignment/Map format and SAMtools. Bioinformatics. 2009;25:2078–2079. [PMC free article] [PubMed] [Google Scholar] Ma B, et al. PatternHunter: faster and more sensitive homology search. Bioinformatics. 2002;18:440–445. [PubMed] [Google Scholar] Malhis N, et al. Slider–maximum use of probability information for alignment of short sequence reads and SNP detection. Bioinformatics. 2009;25:6–13. [PMC free article] [PubMed] [Google Scholar] Meek C, et al. Proceedings of 29th International Conference on Very Large Data Bases (VLDB 2003) Berlin, Germany: 2003. OASIS: an online and accurate technique for local-alignment searches on biological sequences; pp. 910–921. [Google Scholar] Morgulis A, et al. Database indexing for production megablast searches. Bioinformatics. 2008;24:1757–1764. [PMC free article] [PubMed] [Google Scholar] Ning Z, et al. SSAHA: a fast search method for large DNA databases. Genome Res. 2001;11:1725–1729. [PMC free article] [PubMed] [Google Scholar] Pearson WR, Lipman DJ. Improved tools for biological sequence comparison. Proc. Natl Acad. Sci. USA. 1988;85:2444–2448. [PMC free article] [PubMed] [Google Scholar] Rumble SM, et al. SHRiMP: accurate mapping of short color-space reads. PLoS Comput. Biol. 2009;5:e1000386. [PMC free article] [PubMed] [Google Scholar] Schatz M. Cloudburst: highly sensitive read mapping with mapreduce. Bioinformatics. 2009;25:1363–1369. [PMC free article] [PubMed] [Google Scholar] Smith AD, et al. Using quality scores and longer reads improves accuracy of Solexa read mapping. BMC Bioinformatics. 2008;9:128. [PMC free article] [PubMed] [Google Scholar] Weese D, et al. RazerS–fast read mapping with sensitivity control. Genome Res. 2009;19:1646–1654. [PMC free article] [PubMed] [Google Scholar] Zhang Z, et al. A greedy algorithm for aligning DNA sequences. J. Comput. Biol. 2000;7:203–214. [PubMed] [Google Scholar]
初中化学/酸碱性 从前面两章,我们已经学习到了什么是酸和碱。现在我们来总结一下: 酸性溶液可以使紫色石蕊试液变红;碱性溶液可以使紫色石蕊试液变蓝。而中性试液,如蒸馏水,则不能使紫色石蕊变色。 在日常学习中,我们还可以用无色酚酞试液检验碱性溶液,因为碱性溶液可以使无色酚酞试液变红,但是请注意,酸性和中性溶液都不能使无色酚酞试液变色。 除了紫色石蕊试液,我们有时候还会使用石蕊试纸。但是试纸仅分蓝色石蕊试纸和红色石蕊试纸(事实上如此,但是偶尔题目中仍会出现“紫色石蕊试纸”,这个时候只要坚信题目是对的即可)。它们的使用方法如下: 将红色(或紫色)石蕊试纸放在表面皿(或玻璃片)上,将玻璃棒蘸取的试样溶液滴在红色(或紫色)石蕊试纸上,观察试纸颜色的变化。 仅仅凭上述的“变蓝”“变红”,我们只能初步得出溶液的酸碱性。若要得到溶液酸碱性的强度,我们常用pH试纸、pH计等进行测验。这里我们将介绍pH试纸。 pH试纸分为广泛pH试纸和精密pH试纸。广泛pH试纸读数范围通常为0-14,均为整数,也是初中常用的pH试纸,如果没有特别说明,本章的pH试纸指的都是广泛pH试纸;而精密pH试纸则根据精度有0.5级、0.2级或更高精度,但是初中较少见,了解即可。 pH试纸可以粗略测定溶液酸碱性的强弱,具体步骤如下: 将pH试纸放在玻璃片(或表面皿)上,将玻璃棒蘸取的试样溶液滴在pH试纸上,半分钟(或30秒)后,把试纸呈现的颜色与标准比色卡对照,读出pH。 不能将pH试纸直接伸入溶液中。 “pH”常称“pH值”,但是最近教科书上均只称其为“pH”,如“血液的pH约为7.35”。右图是pH大小与溶液酸碱性的强弱的关系,我们用文字再次概括一遍: pH等于7时,溶液呈中性; pH大于7时,溶液呈碱性; pH小于7时,溶液呈酸性。 pH越大,溶液碱性越强;pH越小,溶液酸性越强。 人体各部分的体液都应该维持的一定的pH范围内。若胃酸(主要成分为盐酸 HCl {\displaystyle {\ce {HCl}}} )分泌过多,胃液pH降低至正常值以下,我们会产生胃痛,但是这种情况我们常常通过服用含氢氧化铝( Al ( OH ) 3 {\displaystyle {\ce {Al(OH)3}}} )的药物来缓解。 大部分农作物适合在接近中性(pH在6.5和7.5之间)的土壤中生长。 由于二氧化碳( CO 2 {\displaystyle {\ce {CO2}}} )能溶于水,故雨水呈酸性且pH约为5.6。我们通常把pH<5.6的雨水认定为酸雨。酸雨通常是由某些工厂排放的酸性气体,如二氧化硫( SO 2 {\displaystyle {\ce {SO2}}} ),引起的。 1 酸性溶液能使紫色石蕊试液变为什么颜色?(单选) 2 碱性溶液能使紫色石蕊试液变为什么颜色?(单选) 3 甲正确使用pH试纸测量某硫酸( H 2 SO 4 {\displaystyle {\ce {H2SO4}}} )溶液的酸碱性强度,最终读出pH为1.5。(判断) 4 乙收集20mL雨水于试管中,用pH试纸测出其pH约为6,据此认定收集的雨水为酸雨。(判断) 5 丙胃痛,经检查发现胃酸分泌过多,除了服用医生开的药物外,还应该少吃哪种食品?(单选) 变色的是指示剂,因此我们只能说“ 某溶液 使 某指示剂 变为 某种颜色 ”,如“肥皂水使紫色石蕊试液变蓝”,而不能说“紫色石蕊试液使肥皂水变蓝”。 自来水不是纯净水,呈碱性。 只有酸、碱物质的溶液才可以使指示剂变色。 某些物质,如碳酸钠( Na 2 CO 3 {\displaystyle {\ce {Na2CO3}}} )溶液,虽然溶液中不含氢氧根离子( OH − {\displaystyle {\ce {OH-}}} ),却呈碱性,会使指示剂变色。
MySQL/Language/Browsing the databases information_schema是一个虚拟的、只读数据库。列出了数据库服务器的元信息。也可以用各个SHOW获取信息。 select * from INFORMATION_SCHEMA.SCHEMATA SHOW DATABASES; 或命令行工具 mysqlshow SHOW DATABASES LIKE 'pattern'; SHOW DATABASES LIKE 'my%'; SHOW DATABASES WHERE conditions; INFORMATION_SCHEMA数据库的2张表:`TABLES`, `VIEWS`. USE `database`; SHOW TABLES; SHOW TABLES FROM `database`; 上述两种方式等价。 SHOW TABLES LIKE `pattern`; SHOW TABLES WHERE condition; SHOW FULL TABLES; `Table_type`有3钟: 'BASE TABLE'普通表 'VIEW' 视图 'SYSTEM VIEW'通常是INFORMATION_SCHEMA中的表 SHOW FULL TABLES WHERE `Table_type`='BASE TABLE'; SHOW FULL TABLES WHERE `Table_type`='VIEW'; 列出cache中所有非临时表(也非view): SHOW OPEN TABLES; INFORMATION_SCHEMA中的表COLUMNS 或mysqlshow命令行工具。 DESCRIBE `table`; DESCRIBE `database`.`table`; DESCRIBE `table` 'filter'; DESC 同义 DESCRIBE 'filter' 是列名的模式。 DESC `table` 'my%'; 同义: EXPLAIN `table`; 另外一个同义: SHOW FIELDS FROM `table`; 另外一个同义: SHOW COLUMNS FROM `table`; -- possible clauses: SHOW COLUMNS FROM `table` FROM `database`; SHOW COLUMNS FROM `table` LIKE 'pattern'; SHOW COLUMNS FROM `table` WHERE condition; FIELDS 同义 COLUMNS 。EXPLAIN 同义 SHOW COLUMNS / FIELDS。 指出数据库名字: SHOW COLUMNS FROM `table` FROM `database`; 或者 SHOW COLUMNS FROM `database`.`table`; 关键字FULL: INFORMATION_SCHEMA中的表`COLUMNS`包含索引信息。 命令行mysqlshow -k 其他方法: SHOW INDEX FROM `TABLE`; SHOW INDEX FROM `TABLE` FROM `databases`; KEYS同义INDEX 例如: 删除索引: DROP INDEX `date_2` on `Table1`
工程材料/特殊黄铜 铅黄铜HPb63-3 铅改善切削加工性能,提高耐磨性,对强度影响不大,略微降低塑性。用于要求良好切削性能及耐磨性能的零件(如钟表零件等) ,铸造铅黄铜可制作轴瓦和衬套。 锡黄铜HSn62-1 锡显著提高黄铜在海洋大气和海水中的抗蚀性,并使强度有所提高。压力加工锡黄铜广泛用于制造海船零件。 使强度有所提高。压力加工锡黄铜广泛用于制造海船零件。 铝黄铜HAl60-1-1 铝提高黄铜的强度和硬度( 但使塑性降低),改善在大气中的抗蚀性。制作海船零件及其它机器的耐蚀零件。铝黄铜中加入适量的镍、锰、铁后,还可得到高强度、高耐蚀性的复杂黄铜,制造大型蜗杆、海船螺旋浆等重要零件。 硅黄铜HSi65-1.5-3硅显著提高黄铜的机械性能、耐磨性和耐蚀性。硅黄铜具有良好的铸造性能,并能进行焊接和切削加工,主要用于制造船舶及化工机械零件。
Ubuntu/命令行基础 虽然桌面型计算机操作系统通常都采用图形用户界面,但命令行界面还是具有非常重要的作用和意义: 可实现图形界面不具有的功能。Linux的很多程序是面向命令行的,没有图形前端,只能用命令行使用。 可使用超级用户权限。一些需要超级用户权限的操作只能在命令行下运行。 高效快速。可借助正则表达式实现批量处理,还能向程序发送参数。 安全性高。可减少因错误操作或者权限问题导致的风险。 目前的桌面操作系统几乎都采用图形用户界面,而不是命令行界面。使用命令行,可通过以下几种方式。 虚拟终端是一种应用程序,此程序在图形界面内创建一个窗口,此窗口内就像是命令行界面的屏幕一样。 在Ubuntu中,可按快捷键Ctrl+Alt+T快速启动终端。 可在虚拟终端中输入: INIT.D 3 将当前图形界面切换到命令行界面,可用于不得不关闭图形界面进行操作的情况。 输入: INIT.D 5 切换回图形界面。 可按Ctrl+Alt+F1或F2,F3……来切换到其他tty,即一个命令行登陆界面。这种方式完全不依赖于图形界面,且每个登陆屏幕相对独立互不干扰。 Shell在计算机科学中,是指“提供用户使用界面”的软件,通常指的是命令行界面的解析器。一般来说,这个词是指操作系统中,提供访问内核所提供之服务的程序。 详见Bourne shell 详见Bash
生物信息学/tophat Tophat (http://ccb.jhu.edu/soflware/tophat/index.shtml)主要运用于将 RNA-seq 产生 的reads比对到参考基因组,从而来寻找基因的剪切位点(splicejunction)。该软件通过调 用Bowtie,或Bowtie2来将reads比对到参考基因组上,分析比对结果,从而寻找出外显子之间的结合位点。 Tophat相比于Bowtie的优势在于能对跨越intron的reads进行剪切性比对。 建立在 Bowtie 上并使用相同的基因组索引 用于将 RNA-Seq read与基因组进行比对 优化双末端,Illumina 序列读数 >70bp 推荐下载适合于Linux x86_64的二进制文件压缩包,解压缩即可使用。使用Tophat前需要安装 Bowtie、Bowtie2、Samtool 和 Boost C++ libraries (http://www.boost.org/) 等。其中Boost C++ libraries主要用来帮助编译Tophat源码包。如果是直接下载Tophat的二进制文件压缩包,则可以不需要Boost C++ libraries。 # 下载并安装Tophat: # installing Boost C++ libraries tar jxf ~/software/boost_1_57_0.tar.gz cd boost_1_57_0/ ./bootstrap.sh sudo ./b2 install cd .. sudo rm boost_1_57_0 -rf # installing tophat wget http://ccb.jhu.edu/software/tophat/downloads/tophat-2.1.1.Linux_x86_64.tar.gz -P ~/software/ tar zxf ~/software/tophat-2.1.1.Linux_x86_64.tar.gz -C /opt/biosoft/ echo 'PATH=$PATH:/opt/biosoft/tophat-2.1.1.Linux_x86_64/' >> ~/.bashrc source ~/.bashrc # 下载并安装samtools: wget https://github.com/samtools/samtools/releases/download/1.10/samtools-1.10.tar.bz2 -P 〜/software/ tar jxf 〜/software/samtools-1.10.tar.bz2 cd samtools-1.10/ ./configure --prefix=/opt/biosoft/samtools-1.10/ make -j 4 make install echo 'PATH=$PATH:/opt/biosoft/samtools-1.10/bin/' >> ~/.bashrc source ~/.bashrc cd ../ && rm samtools-1.10 -rf tophat使用的一些注意事项: 1.使用Tohat时,bowtie2(或bowtie,下同), bowtie2-align, bowtie2-inspect, bowtie2-build 和 samtools,这些命令必须要在系统环境变量PATH路径中。 2.Tophat能比对的最大reads为1024bp。 3.不能将多种不同类型的reads混合起来进行比对,这样会给出不好的结果。比如:单端测序reads 不能和双端测序reads混合;不同插入片段长度的双端测序reads不能混合。 4.如果有多种不同类型的reads进行比对,则需要:首先,对第一种类型的reads使用合适的参数运行tophat;然后,使用Tophat软件包中的程序bed_to_juncs将前一次的运行结果junctions.bed 转换成下一次运行topha所的-j参数所需的junction文件;最后,再次运行tophat对下一种类型的reads使用-j参数进行运行。 运行Tophat,需要先使用Bowtie创建index歡据库。多组插入片段长度一致的paired-end数据一起进行比对的时候,数据文件路径之间以逗号分开。 tophat的使用 $ tophat [options]* <index_base> <reads1_1[,...,readsN_1]> <reads1_2[,...,readsN_2]> 可以看出,tophat必须要的条件是比对的index数据库,以及要比对的reads。可以为多个paired-end reads数据以逗号分开。 tophat常用例子: $ tophat -N 5 —read-edit-dist 5 -r 50 --mate-std-dev 20 -p 4 -a 10 -i 20 -1 4000 --min-segment-intron 20 --max-segment-intron 4000 --min-coverage-intron 20 --max-coverage-intron 4000 --coverage-search --microexon-search -G genome_annot.gff3 --library-type fr-firststrand genome reads.1.fq reads.2.fq -h | --help -v | --version -N | --read-mismatches default: 2 丢弃不匹配碱基数超过该数目的比对结果。最终比对结果中,若不匹配碱基数超过该数目,则舍弃。假若测序错误率为1%,双倍体杂合率为 1%,则read长度为100bp时,不匹配碱基数目为2的比对结果会出现很多。因此,该默认值比较严谨,个人建议将此值设置为5,来增加匹配率。 --read-gap-length default: 2 丢弃gap总长度超过该数目的比对结果。最终比对结果中,若gap总长度超过该数目,则舍弃。 --read-edit-dist default: 2 丢弃read的edit distance大于该值的比对结果。最终比对结果中,若edit distance大于该值,则舍弃。该值必须大于或等于-N参数的值。 --read-realign-edit-dist <int> default: "read-edit-dist" + 1 一些跨越多个exons的reads可能会被错误地比对到geneome上。Tophat有多个比对步骤,每个比对步骤过后,比对结果中包含了edit distance的值。该参数能让Tophat对那些edit distance的值 >= 该参数的reads重新进行比对。若设置该参数值为0,则每个read在多个比对步骤中每次都要进行比对。这样会加大地增加比对精确性和运行时间。 默认下该参数比上一个参数的值大,则表示对reads进行重新比对。 --bowtie1 default: bowtie2 使用Bowtie1来代替Bowtie2进行比对。特别是使用colorspace reads时,因为只有Bowtie1支持,而Bowtie2不支持。 -o | --output <string> default: ./tophat_out 输出的文件夹路径 -r | --mate-inner-dist <int> default: 50 成对的reads之间的平均inner距离。例如:ragments长度300bp,reads长度50bp, 则其inner距离为200bp,该值该设为200。 --mate-std-dev <int> default:20 inner距离的标准偏差。 -a | --min-anchor-length <int> default: 8 read的锚定长度:该参数能设定的最小值为3;锚定在junction两边的reads长度只有都大于此值,才能用于junction的验证。现在Illumina测序的读长越来越长,建议将该值设大一些,比如设为read长度的10%。 -m | --splice-mismatches <int> default: 0 对于一个剪切比对,其在锚定区能出现的最大的不匹配碱基数。当-a参数设置较大时候,则需要加大该值了。 -i | --min-intron-length <int> default:70 最小的intron长度。Tophat会忽略比该长度要小的donor/acceptor pairs,认为该区属于exon。真核生物中intron的长度最小也要大于10bp,—般情况下,intron长度大 于30bp。个人建议将此参数设置为20。 --I | --max-intron-length <int> default:500000 最大的intron长度。Tophat会忽略长度大于该值的donor/acceptor pairs,除非有long read支持。真核生物绝大部分intron的长度小于2000bp。个人建议根据物种的特性将 此参数设置为3000-20000。 --max-insertion-length <int> defautl: 3 最大的插入长度 --max-deletion-length <int> default: 3 最大的缺失长度 --solexa-quals fastq文件使用Solexa的碱基质量格式。不设置此参数和下一个参数,则默认为Phred33。 --solexa1.3-quals | --phred64-quals 使用Illumina GA pipeline version 1.3的碱基质量格式,即Phred64。 -Q | --quals 说明是使用单独的碱基质量文件 --inter-quals 有空格隔开的整数值来代表碱基质量。当使用 -C 参数时,该参数为默认参数。 -C | --color Colorspace reads。使用这一种reads的时候命令如下: $ tophat --color --quals --bowtie1 [other options]* <colorspac e_index_base> <reads1_1[,...,readsN_1]> <reads2_1[,...,readN_2]> <quals1_1[,...,qualsN_1]> <quals1_2[,...,qualsN_2]> -p | --num-threads <int> default: 1 比对reads的线程数 -g | --max-multihits <int> default: 20 对于一个reads,可能会有多个比对结果,但tophat根据比对得分,最多保留的比对结果数目。如果没有 --report-secondary-alignments 参数,则只会报告出最佳的比对结果。若最佳比对结果数目超过该参数值,则只随机报告出该数目的最佳比对结果;若有 --report-secondary-alignments 参数,则按得分顺序报告出比对结果,直至达到默认的数目为止。将RNA-seq数据比 对到基因组后,当使用cufflinks计算表达量时,若出现read比对到N个位置,则每个位置的 count数计算为1/N。因此,个人不推荐设置"-g 1"。 --report-secondary-alignments 是否报告additional or secondary alignments(基于比对分值AS来确定的)。 --no-discordant 对于paired reads,仅仅报告concordant mappings。 --no-mixed 对于paired reads,只报告concordant mappings 和 discordant mappings。默认上,是所有的比对结果都报告。 --no-coverage-search 取消以覆盖度为基础来搜寻junctions,和下一个参数对立,该参数为默认参数。 --coverage-search 确定以覆盖度为基础来搜寻junctions。该参数能增大敏感性。 --microexon-search 使用该参数,pipeline会尝试寻找micro-exons。仅仅在reads长度>=50bp时有效。 --library-type default: fr-unstranded Tophat处理的reads具有链特异性。比对结果中将会有XS标签。一般Illumina数据的library-type为 fr-unstranded。 设置是否为链特异性测序或其种类。非链特异性的RNA-Seq,此值要设为默认的fr-unstranded; 链特异性的RNA-Seq中需要设置为fr-firststrand或fr-secondstrand。链特异性测序的比对结 果中将会有个XS标签进行说明。 fr-firststrand: right reads (reversed reads)是先被测序的,即测序结果文件中 reads1.fq 中的序列都比对到基因的负义链上。一般Illumina的链特异性测序是这种。 fr-secondstrand: left reads (forward reads)是先被测序的,即测序结果文件中 reads1.fq 中 的序列都比对到基因的正义链上。 当有-G参数指定了基因结构时,设置正确此参数则更好。 --segment-length default:25 将read切成片段,片段长度最小为此长度。这些片段将独立地比对到参考序列。 --segment-mismatches default: 2 将切碎得到的小片段比对到参考序列上,允许的最小mismach数。 --min-segment-intron default:50 Split-segment search方法进行intron鉴定,所允许的最小intron长度。建议将此值设置成与-i参数一致。 --max-segment-intron default:500000 Split-segment search方法进行intron鉴定,所允许的最大intron长度。建议将此值设置成与-I参数一致。 --min-coverage-intron default:50 Coverage search方法进行intron鉴定,所允许的最小intron长度。建议将此值设置成与-i参数一致。 --max-coverage-intron default:500000 Split-segment search方法进行intron鉴定,所允许的最大intron长度。建议将此值设置成与-I参数一致。 --keep-tmp 保留中间文件和临时文件,对于debug有用 --keep-fasta-order 对比对结果按基因组fasta文件进行排序。该参数会使输出的SAM/BAM文件和tophat的1.41或以前版本不兼容 --no-sort-bam 输出的BAM文件不是坐标排序coordinate-sorted. --no-convert-bam 不要转换成bam格式。输出结果为sam格式。 -R | --resume <string> 设置该参数输入上个Tophat命令未完成的结果文件夹,程序会从最末尾的成功完成点处,接着运行Tophat。使用方法为:$ tophat -R tophat_out -z | --zpacker default:gzip 用来对临时文件进行压缩的的压缩程序 使用tophat2的时候,可能需要用一些参数来设置bowtie2的运行。这些参数都以’b2’ 开头。其实,这些参数使用默认的即可。 end-to-end模式(Tophat2不能使用local alignment): --b2-very-fast --b2-fast --b2-sensitive --b2-very-sensitive 比对参数: --b2-N default: 0 --b2-L default: 20 --b2-i default: S,1,1.25 --b2-n-ceil default: L,0,0.15 --b2-gbar defaut: 4 得分参数: --b2-mp default: 6,2 --b2-np default: 1 --b2-rdg default: 5,3 --b2-rfg default: 5,3 --b2-score-min default: L,-0.6,-0.6 Effort参数 --b2-D default: 15 --b2-R default: 2 如果设定开启 –fusion-search 参数,则有些reads能比对到潜在的融合转录本(fusion transcripts)上。这些融合比对结果使用SAM文件中的XF和XP标签来标记。额外融合信息保存在 fusions.out 中。比对结束后,可以使用Tophat软件包中附带的程序tophat-fusion-post来提取融合转录本。 --fusion-search 开启融合转录子的比对 --fusion-anchor-length default: 20 read比对到融合子的两边,每以边至少匹配的碱基数。 提供的转录结构注释数据:值得注意的提供的GTF文中中的染色体名称和Bowtie index中的一致。这些名称是区分大小写的。 -j | --raw-juncs <.juncs file> 提供junctions文件。该文件可以使用tophat同一目录下的程序bed_to_juncs程序来处理tophat的结果文件junctions.bed生成。其命令为:$ bed_to_juncs <junctions.bed> junctions文件是tab分隔的文件,内容为: <chrom> <leftgt> <rigth> <+/-> 其中left和right数值是0-based的junction两端的值。 --no-novel-juncs 只搜寻和GFF或junctions文件中提供的junctions想匹配的reads。如果没有 -G 或 -j 参数,则该参数无效。 -G | --GTF <GTF/GFF3 file> 提供基因模型的注释文件,GTF 2.2 或者 GFF 3 格式的文件。如果设置了该参数,Tophat则先提取出转录子序列,然后使用Bowtie2将reads比对到提取的转录组中;只有不能比对上的reads再比对到genome;将比对上的reads再打断转变成genomic mappings;再融合新的mappings和junctions作为最后的输出。将比对上到虚拟转录组的比对结构转换成genomic mapping 的比对结果;将前两者的比对结果进行融合作为最后的输出。 值得注意的是GTF/GFF文件代表chromosome和contig的第一列要和bowtie index中的参考序列名一致。 使用命令 $ bowtie-inspect --names your_index命令可以获得bowtie的index数据库中的序列名。 --transcriptome-index <dir/prefix> 是使用了 -G 参数后,Tophat提取转录子序列,然后使用bowtie2-build来建立index,这个过程会消耗不少时间。于是,使用该参数,会将index文件生成到指定文件夹。则后续的运用同样的index则不再需要额外耗时了。 使用RNA-seq数据对提供的插入。插入/缺失(insertions/deletions)信息进行验证: --insertions | --deletions <.juncs file> juncs文件中每行代表一个INDEL。数字代表的位置都是0-based类型。 缺失的写法:<chrom> <left> <right>从left到right之间的碱基发生缺失。 缺失的例子:chr1 20564 20567表示第20565号碱基到第20566号碱基(共2个碱基)缺失。 插入的写法:<chrom> <left> <dummy>〈inserted sequence〉dummy 和 left 数值一致,表示在此位置前插入了的碱基序列为〈inserted sequence〉。 插入的例子:chrl 17491 17491 CA表示在参考序列的第17490号碱基和17291号碱基之间插入了2个碱基‘CA’。 juncs文件例子: chr1 20564 20567 0-based数值。表示有20565和20566这2个碱基缺失 chr1 17491 17491 CA 表示在17491处插入了2个碱基CA --no-novel-indels 仅仅只搜寻在已给的位点的reads。仅仅只搜寻在已给的INDEL位点的reads。如果没有上述参数提供INDELs文件,则不进行INDEL检测。 1. accepted_hits.bam 比对结果文件,默认格式下为sorted的结果。 2. junctions.bed 剪接位点信息,UCSC BED格式。 3. insertions.bed 和 deletions.bed INDELs 信息结果。 4. align_summary.txt 比对结果的统计信息 5. unmapped.bam 未比对上的序列
初中化学/碱 碱是一种与酸相对立的物质。初中常见的碱有氢氧化钠( NaOH {\displaystyle {\ce {NaOH}}} )和氢氧化钙( Ca ( OH ) 2 {\displaystyle {\ce {Ca(OH)2}}} )。 氨水正确的化学式为 NH 3 · H 2 O {\displaystyle {\ce {NH3{·}H2O}}} ,但是我们可以将它理解为 NH 4 OH {\displaystyle {\ce {NH4OH}}} 。它也是一种碱,易挥发出氨气( NH 3 {\displaystyle {\ce {NH3}}} ),有刺激性气味。 碱通常含有氢氧根( OH − {\displaystyle {\ce {OH-}}} ),因此碱有许多共同性质(“共性”)。 氢氧化钠俗称火碱、烧碱、苛性钠,为白色固体。因固体易吸收空气中的水蒸气而潮解,我们常将它用作干燥剂。(注意,只有氢氧化钠固体才可以用作干燥剂,氢氧化钠溶液不可用作干燥剂。)氢氧化钠溶液同时具有强腐蚀性。 氢氧化钠固体易溶于水,且溶解时放热。 前面我们说了,氢氧化钠会潮解形成溶液,而其溶液具有腐蚀性。当我们称取氯化钠( NaCl {\displaystyle {\ce {NaCl}}} )固体的时候,我们只需要在天平左右分别放上一张相同的纸,再进行称量。而我们在称取氢氧化钠固体的时候,则必须在天平左右分别放置一个相同的玻璃器皿,再进行称量,防止氢氧化钠潮解形成溶液从而腐蚀天平。 氢氧化钠(无论是固体还是溶液)还可以与二氧化碳反应而变质,化学方程式如下: 2 NaOH + CO 2 ⟶ Na 2 CO 3 + H 2 O {\displaystyle {\ce {2NaOH{+}CO2->Na2CO3{+}H2O}}} 该反应没有明显现象,也不能直接通过指示剂来检验其变质与否,因为反应生成的碳酸钠( Na 2 CO 3 {\displaystyle {\ce {Na2CO3}}} )溶液同样呈碱性。由于氢氧化钠固体在水中的溶解度高,氢氧化钠溶液常常在实验室中用来吸收二氧化碳,而氢氧化钙溶液则常被用来检验二氧化碳(将在后面介绍)。 氢氧化钠常用于人造丝、造纸、炼油、纺织、印染、制作肥皂与橡胶工业。氢氧化钠在实验室中的用处,一般不归为其用途。 氢氧化钙俗称熟石灰或消石灰,为白色固体。氢氧化钙的水溶液常被称为石灰水,澄清的石灰水可以用于检验二氧化碳,因为二者可以反应生成水和不溶于水的碳酸钙( CaCO 3 {\displaystyle {\ce {CaCO3}}} ),化学方程式如下: Ca ( OH ) 2 + CO 2 ⟶ CaCO 3 ↓ + H 2 O {\displaystyle {\ce {Ca(OH)2 +CO2 -> CaCO3v +H2O}}} 而用氢氧化钙检验二氧化碳的全过程应该表述为: 将(生成的)气体通入澄清石灰水,若石灰水变浑浊,说明有二氧化碳产生(或存在等,依实际情况而定)。 氧化钙( CaO {\displaystyle {\ce {CaO}}} )俗称生石灰,可以与水反应生成熟石灰即氢氧化钙,反应过程放热,常用作干燥剂,化学方程式如下: CaO + H 2 O ⟶ Ca ( OH ) 2 {\displaystyle {\ce {CaO +H2O -> Ca(OH)2}}} 注意:生成的氢氧化钙呈碱性,会与酸性气体(如二氧化碳)反应,因此不能用于干燥酸性气体。 氢氧化钙溶液具有腐蚀性。氢氧化钙与碳酸钙一样,可以用作建筑材料。除此之外,氢氧化钙也可以用于改良酸性土壤和配置农药波尔多液。 配置农药波尔多液的原理为,氢氧化钙与硫酸铜( CuSO 4 {\displaystyle {\ce {CuSO4}}} )反应生成硫酸钙( CaSO 4 {\displaystyle {\ce {CaSO4}}} )和氢氧化铜( Cu ( OH ) 2 {\displaystyle {\ce {Cu(OH)2}}} )沉淀,化学方程式如下: Ca ( OH ) 2 + CuSO 4 ⟶ CaSO 4 + Cu ( OH ) 2 ↓ {\displaystyle {\ce {Ca(OH)2 +CuSO4 -> CaSO4 +Cu(OH)2v}}} 这一反应属于复分解反应,我们将在后面进一步学习它。
MySQL/Databases manipulation CREATE DATABASE database; 需要特权。 mysqladmin create是该函数的命令行包装器。 MySQL中, CREATE SCHEMA同义于CREATE DATABASE。 DROP DATABASE database; 需要特权。 mysqladmin drop是该函数的命令行包装器。命令行选项-f抑制交互式确认,用于无人在场的脚本。 SQL语言现在不能直接做数据库更名。. 替代方法: mysqladmin create name2 mysqldump --opt name1 | mysql name2 mysqladmin drop -f name1 或者文件夹直接更名: cd /var/lib/mysql/ /etc/init.d/mysql stop mv name1/ name2/ /etc/init.d/mysql start 还需要更新特权的授权: UPDATE mysql.db SET `Db`='name2' WHERE `Db`='name1'; FLUSH PRIVILEGES; MySQL没有直接做数据库复制的语句。 mysqldump命令行产生一个文件数据库拷贝。可重注入其他数据库。 # First, clean-up the target database: mysqladmin drop -f base2 mysqladmin create base2 # Copy base1 to base2: mysqldump --opt base1 | mysql base2 在Linux上每天午夜自动备份: $ crontab -e 0 0 * * * /usr/local/bin/mysqldump -uLOGIN -PPORT -hHOST -pPASS base1 | gzip -c > `date “+\%Y-\%m-\%d”`.gz mysql -h localhost -u root MaBase < MaBase.sql Template:... 工具: MySQL Migration Toolkit MySQL Query Browser包含 MySQL Table Editor 模块 Kexi (wikipedia: Kexi) https://dev.mysql.com/doc/refman/5.1/en/rename-database.html http://stackoverflow.com/questions/6645818/how-to-automate-database-backup-using-phpmyadmin
免疫学/细胞因子的主要种类及主要功能 细胞因子 - 细胞因子的共同特性 - 细胞因子受体家族 - 细胞因子的生物学活性 - 细胞因子与临床 最初指由白细胞产生又在白细胞间发挥作用的细胞因子。 也可由其它细胞产生,也可作用于其它细胞。 已发现了37种白细胞介素,分别命名为IL-1~IL-37。 主要由T细胞产生。 以自分泌和旁分泌方式发挥效应。 活化T细胞,促进细胞因子产生; 刺激NK细胞增殖,增强NK杀伤活性及产生细胞因子,诱导LAK细胞产生; 激活巨噬细胞 主要由Th2细胞、肥大细胞及嗜性粒细胞产生。 促B细胞增殖、分化; 诱导IgG1 和IgE产生; 促进Th0细胞向Th2细胞分化; 抑制Th1细胞活化及分泌细胞因子; 协同IL-3刺激肥大细胞增殖等。 主要Th2细胞和单核巨噬细胞产生。 抑制前炎症细胞因子产生; 抑制MHC-II类分子和B-7分子的表达; 抑制T细胞合成IL-2、IFN-γ等细胞因子。 主要由树突状细胞、单核-巨噬细胞、人B淋巴母细胞产生。 激活和增强NK细胞杀伤活性及IFN-产生; 促进Th0向Th1细胞分化,分泌IL-2、IFN-γ; 增强CD8+ CTL细胞杀伤活性; 可协同IL-2诱生LAK细胞; 抑制Th0细胞向Th2细胞分化和IgE合成, 指宿主细胞受干扰素诱生剂(如:病毒、聚集胞苷酸和丝裂原)作用后合成的一组糖蛋白,具有抗肿瘤、抗病毒及免疫调节作用。因具有干扰病毒感染和复制的能力而命名。根据其来源、生物学性质及活性的差异,可分为: Ⅰ型干扰素 IFN-α和 IFN-β Ⅱ型干扰素(免疫干扰素)IFN-γ 指一种能使肿瘤发生出血坏死的物质。根据其结构和来源不同,分为两类: TNF-α:主要由激活的单核-巨噬细胞产生。参与炎症、免疫应答、抗肿瘤、参与内毒素性休克等病理过程,引起恶病质等。 TNF-β:又称淋巴毒素(lymphotoxin, LT),主要由激活的淋巴细胞产生。其生物学作用与TNF-α极为相似,最大不同在于LT在局部发挥作用。 指能刺激多能造血干细胞和不同发育分化阶段的造血干细胞进行增殖分化,并在半固体培养基中形成相应集落的细胞因子。 主要由白细胞与造血微环境中的基质细胞分泌,可结合在内皮细胞的表面,具有对中性粒细胞、单核细胞、淋巴细胞、嗜酸性粒细胞和嗜碱性粒细胞的趋化和激活活性。根椐其肽链 N 端半胱氨酸的排列方式,可分为4个家族:C、C-C、CXC、CX3C。其中C代表半胱氨酸,X代表任一氨基酸。 TGF是一组调节细胞生长和分化的细胞因子。
工程材料/灰口铸铁 石墨成片状,由于石墨的存在,其断口呈暗灰色而得名。灰口铸铁价格便宜,是应用最多的铸铁材料。 灰铸铸铁中的碳、硅质量分数一般控制在:2. 5%~4. 0%C; 1. 0%~2. 0%Si。 灰口铸铁是典型得脆性材料,抗压强度较高,适用于铸造各种设计产品的基座。 灰口铸铁的牌号 “HT”表示“灰铁”,后面的数字表示最低抗拉强度,如HT150 、HT250 、HT400。
Ubuntu/文件乱码 现象:Ubuntu中默认使用gedit打开纯文本文档,在打开Windows保存的纯文本文档时,会出现乱码。 原因:Windows中文版使用GBK或Big5字符集,而gedit默认字符集是UTF-8。 解决方法: 方法一:命令行方式 gconftool-2 --set --type=list --list-type=string /apps/gedit-2/preferences/encodings/auto_detected "[UTF-8,CURRENT,GB18030,BIG5-HKSCS,UTF-16]" 方法二:图形化方式 安装gconf-editor,配置编辑器 运行gconf-editor,配置编辑器 展开左边的树节点,找到 /apps/gedit-2/preferences/encodings 节点并单击它 双击右边的 auto_detected 键,打开“编辑键”对话框 单击列表右边的“添加”按钮,输入“GB18030”,单击确定按钮。 列表的最底部新增加了一个“GB18030”。单击选中它,并单击右边的 “向上” 按钮直到 “GB18030” 位于列表的顶部为止 单击确定按钮,关闭配置编辑器 现象:PDF文档中的中文显示为方块,尤其是从中国知网等下载的论文。 原因:默认字体设置问题,默认字体不是中文字体。 解决方法: 解决方法:使用chmsee软件(华人开发)打开,对中文支持良好。 现象:在Windows中创建的压缩文件,在Ubuntu中察看或解压乱码;在Ubuntu中创建的压缩文件,在Windows中察看或解压乱码。 原因:Ubuntu和Windows使用不同的系统默认编码,且压缩解压程序不能正确识别编码。 解决方法: 方法一:更换压缩格式 尽量使用7z,jar压缩格式,可准确识别编码,不会出现乱码。 方法二:使用命令行参数 如果您知道压缩文档的编码,如果它是在Windows简体中文版上被创建的,那么它很可能是GBK编码的。 对于zip压缩文档: unzip -O GBK xxx.zip
生物信息学/hisat HISAT2(Hical Indexing for Spliced Alignment of Transcripts)是由约翰霍普金斯大学开发,能够将RNA-Seq的reads与基因组进行快速比对的一款程序。这项成果发表在2015年3月9日的《Nature Methods》上。HISAT利用大量FM索引,以覆盖整个基因组。以人类基因组为例,它需要48, 000个索引,每个索引代表~64, 000bp的基因组区域。这些小的索引结合几种比对策略,实现了RNA-Seq读取的高效比对,特别是那些跨越多个外显子的读取。尽管它利用大量索引,但HISAT只需要4.3GB的内存,而运行速度比Tophat快了一个数量级。 该软件比 tophat 比对速度快很多倍。 Hisat用户手册 Hisat官网 HISAT2官网 HISAT2用户手册 Hisat参考文献: Kim D, Langmead B and Salzberg SL. HISAT: a fast spliced aligner with low memory requirements. Nature Methods 2015 Kim, D., Paggi, J.M., Park, C. et al. Graph-based genome alignment and genotyping with HISAT2 and HISAT-genotype. Nat Biotechnol 37, 907–915 (2019). 软件和基因组索引下载地址 # installing HISAT2 wget https://cloud.biohpc.swmed.edu/index.php/s/oTtGWbWjaxsQ2Ho/download -P ~/software/ unzip ~/software/hisat2-2.2.1-Linux_x86_64.zip -d /opt/biosoft/ echo 'PATH=$PATH:/opt/biosoft/hisat2-2.2.1-Linux_x86_64' >> ~/.bashrc source ~/.bashrc # extract_splice_sites.py程序的运行需要python2.7 tar zxf ~/software/Python-2.7.11.tgz ./configure --prefix=/opt/sysoft/Python-2.7.11 make -j 4 echo 'PATH=/opt/sysoft/Python-2.7.11/bin/:$PATH' >> ~/.bashrc source ~/.bashrc cd .. rm Python-2.7.11 -rf Hisat2的使用方式和命令参数与Bowtie2非常类似。 首先,构建参考序列的索引: hisat2-build genome.fasta genome hisat2-build 常用参数: -p <int> default:1 使用多线程运行。当基因组较大的时候,构建索引数据库非常耗时间。该参数能加快速度。 --snp <path> 输入一个包含SNP信息的文件。该文件有5列以tab分割的数据:SNPID、参考序列ID、SNP类型 (single, deletion或insertion)、SNP位点(以第一个碱基位点为0计算)、变异喊基信息。例如:“rs58784443 single 13 18447947 T"。 --haplotype <path> 输入一个单倍型信息文件,表明--snp参数指定的某些变异位点在要分析的样品中是单倍型的,和其变异位点碱基信息一致。该文件有5列以tab分割的数据:Haplotype ID、参考序列ID、起始位点(以第一个碱基位点为0计算)、结束位点(以第一个碱基位点为0计算)、逗号分隔的多个SNP ID。 例如:ht35 13 18446877 18446945 rs12381094, rs12381056, rs192016659, rs538569910O 输入该参数能减小索引数据库的大小。 ' --ss <path> 输入一个包含有剪接位点(Splicing Site)信息的文件。该文件可以利用HISAT2软件自带的hisat2_extract_splice_sites.py程序对编码蛋白基因结构注释GTF文件转换获得。 --exon <path> 输入一个含有exon信息的文件。利用HISAT2软件自带的hisat2_extract_exons.py程序对编码蛋白基因结构注释GTF文件转换获得该文件。 然后,使用HISAT2对转录组数据进行比对。 常用示例: hisat2 -x genome -u 1000000 -p 24 -I 0 -X 500 —fr --min-intronlen 20 --max-intronlen 4000 -1 reads.1.fastq -2 reads.2.fastq -U single.fastq -S result.sam Hisat2的常用参数: #一般参数 --version 打印程序版本并退出 -h/--help 打印用法信息并推出 #主要参数: -x <hisat-idx> 索引数据文件的前缀。 -1 <m1> 双末端测序结果的第一个文件。若有多组数据,使用逗号将文件分隔。Reads的长度可以不一致。 -2 <m2> 双末端测序结果的第二个文件。若有多组数据,使用逗号将文件分隔,并且文件顺序要和-1参数的对应。Reads的长度可以不一致。 -U <r> 单端数据文件。若有多组数据,使用逗号将文件分隔。可以和-1,-2参数同时使用。Reads的长度可以不一致。 --sra-acc <SRA accession number> 输入SRA登录号,比如SRR353653,SRR353654。多组数据之间使用逗号分隔。HISAT将自动下载数据并识别数据类型,进行比对。该参数的正常使用需要安装NCBI-NGS toolkit。 -S <hit> 设置输出文件名。默认情况下输出到标准输出。 #输入参数: -q 输入的Reads是fastq格式。默认情况下开启了该参数。 -qseq 输入的文件为QSEQ格式文件。 --qc-filter 滤除QSEQ fileter filed为非0的reads. 仅当有—qseq选项时有效. Default: off. --seed <int> 使用<int>作为随机数产生的种子. Default: 0. -f 输入的Reads是fasta格式。 -r 输入的文件中,每一行代表一条序列,没有序列名和测序质量等。选择此项时,表示--ignore-quals也被选择了。 -c 此参数后直接是比对的reads序列,而不是包含序列的文件名。序列间用逗号隔开。选择此项时,表示--ignore-quals也被选择了。 -s | --skip <int> 跳过前<int>个read pairs,再进行比对。 -u | --qupto <int> 仅对前<int>个read pairs进行比对。 -5 | --trim5 <int> 将reads 5‘端碱基去除<int>个后,再进行比对。 -3 | --trim3 <int> 将reads 3‘端碱基去除<int>个后,再进行比对。 --phred33 输入的fastq文件的碱基质量为phred33。默认开启了此参数。 --phred64 输入的fastq文件的碱基质量为phred64。 --solexa-quals 将Solexa的碱基质量转换为Phred。在老的GA Pipeline版本中得以运用。Default: off. --int-quals 输入文件中的碱基质量为用“ ”分隔的数值,而不是ASCII码。比如40 40 30 40...。 Default: off. #比对参数: --n-ceil <func> 设定read中允许含有不确定碱基(非GTAC,通常为N)的最大数目。Default: L,0,0.15。计算公式为:f(x) = 0 + 0.15 * x,表示长度为100的read最多运行存在15个不确定碱基。一旦不确定碱基数超过15,则该条read会被过滤掉。 --ignore-quals 计算错配罚分的时候不考虑碱基质量.当输入序列的模式为-f, -r或者-c的时候,该设置自动成为默认设置. --nofw/--norc --nofw设置reads不和前导链(forward reference strand)进行比对;--norc设置reads和后随链(reverse-complement reference strand)进行比对。Default: both strands enabled。 #得分参数: --ma <int> 设定匹配得分.--local模式下每个read上碱基和参考序列上碱基匹配,则加<int>分.在--end-to-end 模式中无效.Default: 2. --mp MX,MN 设定错配罚分。其中MX为所罚最高分,MN为所罚最低分。默认设置下罚分与碱基质量相关。罚分遵循的公式为:MN + floor( (MX-MN)(MIN(Q, 40.0)/40.0))。其中Q为碱基的质量值。如果设置了--ignore-qual参数,则错配总是罚最高分。Default: MX = 6, MN = 2。 --sp <int>,<int> default: 1,2 设定soft-clipping罚分,罚分与碱基质量值有关,与参数--mp的罚分算法一致。Read首尾碱基若和参考基因组不匹配的时候,程序将read首尾序列进行软截断(即匹配信息结果中没有计算被截断的序列,同时又保留了整条read信息)。该参数的罚分较低,表示允许Read首尾碱基不匹配。Hisat2默认设置下该参数生效,其SAM文件结果中,第4列参考序列上的比对起始位点对应着截断后read的起始位点,第6列中的S表示发生了soft-clipping。 --no-softclip 加入该参数后,则禁止soft-clipping功能。有些表达量或intron分析软件不能正确处理有soft-clipping的比对结果,可以加入该参数禁用soft-clipping功能,从而提高SAM文件的兼容性。 --np <int> 当匹配位点中read或reference上有不确定碱基(比如N)时所设定的罚分值。Default: 1。 --rdg <int1>,<int2> 设置在read上打开gap罚分<int1>,延长gap罚分<int2>。Default: 5, 3。 --rfg <int1>,<int2> 设置在reference上打开gap罚分 <int1>,延长 gap 罚分<int2>。Default: 5, 3。 --score-min <func> 设定成为有效比对的最小分值。Default: L,0,-0.2。表示对于100bp的read,允许的最小得分是-20。 #剪接比对参数: --pen-cansplice <int> 当剪接位点为常规位点(比如GT/AG)时的罚分。Default: 0。 --pen-noncansplice <int> 当剪接位点为非常规位点(比如non-GT/AG)时的罚分。Default: 3。一般情况下,有少部分剪接位点为GC/AG和AT/AC。 --min-intronlen <int> 设置最小的intron长度。Default: 20。 --max-intronlen <int> 设置最大的 intron 长度。Default: 500000。 --known-splicesite-infile <path> 提供一个包含剪接位点信息的文本文件。该文件可以使用extract_splice_sites.py命令对GTF文件分析得到。 --nove1-sp1icesite-outfile <path> HISAT2报告新剪接位点的信息文件。 --novel-splicesite-infile <path> 用于输入上一个参数得到的文件。 --no-spliced-alignment 不进行剪接性比对。 --rna-strandness <string> 设置链特异性参数。若是单端测序数据,设置为F表示reads都比对到transcripts序列正链上, 设置为R表示reads都比对到transcripts负链上。若是双末端测序数据,则设置为RF或FR。其 中,RF表示双末端测序中第一个Fastq文件中的reads都比对到transcripts序列负链上,且第 二个Fastq文件的中reads都比对到transcripts正链上。FR表示双末端测序中第一个Fastq文件中的reads都比对到transcripts序列正链上,且第二个Fastq文件的中reads都比对到 transcripts负链上。一般链特异性测序中,该参数的值应该是RF。该参数和Tophat软件中的参 数--library-type 类似。 --tmo | --transcriptome-mapping-only 开启该参数后则仅报告比对到transcripts序列上的比对结果。 --dta | --downstream-transcriptome-assembly 开启该参数后,能报告和转录子组装软件StringTie兼容的比对结果。开启该参数后,对于重头预 测的剪接位点,HISAT2需要更长的锚定长度。 --dta-cufflinks 开启该参数后,能报告与cufflinks软件兼容的比对结果。开启该参数,相当于开启了--dta参数, 并且HISAT2寻找新的剪接位点时,则必须满足是(GT/AG, GC/AG和AT/AC),同时比对结果中多了 XS:A:[+-]的标签信息。若非链特异性测序结果不加此参数,则HISAT2的结果进行Cufflinks分 析的时候会报错。 #报告参数: -k <int> 设置报告的最优比对结果数目。Hisat会寻找最优比对结果,当超过此数目时,则停止寻找。 Default: 5 (HFM) or 10 (HGFM)。当基因组重复序列较多,该参数设置较大,则运行速度慢。 #Paired-end 参数: -I/--minins <int> Default: 0 设置插入片段长度的最小值。插入片段长度为:两端序列长度+ Gap长度。-I和-X参数设置 的范围越大,则运行速度越慢。若其值分别设置为2的和400,则Hisat运行比较高效。 -X/—maxins <int> Default: 500 设置插入片段长度的最大值。插入片段长度为:两端序列长度+ Gap长度。 --fr/--rf/--ff 设置双末端测序数据的方向。Default: --fr。 --fr: (==>> <<==)匹配时,mate1在5’端上游,和前导链一致,mate2在3’端下游,和前导链反向互补;或者mate2在上游,和前导链一致,mate1在下游反向互补。 --rf: (<<== ==>>)匹配时,mate1在5’端上游,和前导链反向互补,mate2在3’端下游,和前导链一致。 --ff: (=>> ==>>) matel 和 mate2 都和前导链一致。 --no-mixed 默认设置下,一对reads不能成对比对到参考序列上,则单独对每个read进行比对。该选项则阻止此行为。 --no-discordant 默认设置下,一对reads不能和谐比对(concordant alignment,即满足-I、-X和--fr/--rf/--ff的条件)到参考序列上,则搜寻其不和谐比对(disconcordant alignment,即两条reads都能独一无二地比对到参考序列上,但是不满足-I、-X和--fr/--rf/--ff的条件)。该选项阻止此行为。 #SAM参数: --rg-id <text> 设定read group ID为text。在SAM文件的头中增加一行@RG,在输出的SAM文件中添加Tag ”RG:Z:text”。 --rg <text> 使用text作为@RG的一列,比如”SM:sample1、”PL:illumina”等。在@RG中加入多列,则多次使用该参数即可。 #性能参数: -p/--threads NTHREADS 设置程序运行的线程数。 Bowtie2输出的比对结果文件为SAM格式,同时在比对完毕时,将比对的统计结果输 出到标准错误输出。更为详细的统计结果可以自行编写程序从SAM文件分析。 $ RNA_Seq_Sam_Statistics.pl hisat2.sam > hisat2.stats hisat2.stats文件内容示例: Total reads 95202044 100.00% Total Basepairs 13822693238 100.00% Total Mapped reads 93152492 97.85% Fully match 71067818 74.65% <=2bp mismatch 19578773 20.57% Unique match 73750114 77.47% Multi-position match 19402378 20.38% One Best Score match 88880927 93.36% Total unmatched reads 2049552 2.15% 程序RNA_Seq_Sam_Statisties.pl根据HISAT2的SAM文件中的标签来识别reads的匹配情况: NM:i:<N> 该标签表示不匹配的碱基数(read和参考序列差异的最小碱基个数)。 ZS:i:<N> 该标签考示read的次优比对得分。若是双末端测序,单端read的次优比对得分可能高于最优比对得分。若存在ZS标签,则表明read一定能比对到基因组多个位置。若不存在ZS标签,read也有可能比对到基因组上多个位置(这多个位置的比对得分相同)。 NH:i:<N> 该标签表示read或read pair比对到基因组上的位置数目。
初中化学/复分解反应 复分解反应是四种基本反应类型中的一种,其基本定义是两种化合物相互交换成分,生成两种新的化合物。 在进一步学习之前,您需要有“常见的化合物(酸、碱、盐)”和“物质组成的表示”基础。 以下是几个常见的复分解反应的化学方程式: ⒈ AgNO 3 + HCl ⟶ HNO 3 + AgCl ↓ {\displaystyle {\ce {AgNO3 +HCl -> HNO3 +AgCl v}}} ⒉ NaOH + HCl ⟶ NaCl + H 2 O {\displaystyle {\ce {NaOH +HCl -> NaCl +H2O}}} ⒊ CaCO 3 + 2 HCl ⟶ CaCl 2 + H 2 O + CO 2 ↑ {\displaystyle {\ce {CaCO3{+}2HCl->CaCl2{+}H2O{+}CO2\uparrow }}} 我们先观察上面几个化学方程式。 仅凭肉眼可能无法看出规律,我们这里以第一个方程式为例。 在这个反应中,硝酸银中的银元素与氯化氢中的氯元素形成难溶于水的氯化银沉淀,同时硝酸银中的硝酸根与氯化氢中的氢元素形成硝酸。但是银元素、氢元素反应前后的化合价都是+1,而硝酸根和氯元素反应前后的化合价也都是-1。至此,我们可以归结出第一个结论:复分解反应前后元素的化合价不变。 还是上面的几个化学方程式。 我们可以清楚地发现,除了第一个反应存在疑虑以外,第二、第三个反应都不能发生“逆反应”,即:氯化钠无法和水发生反应,氯化钙、水、二氧化碳均不能发生反应。在证明第一个反应不能发生逆反应之前,我们先讲出概念:复分解反应一定有气体或沉淀或水生成。 以下内容用于证明第一个反应不可逆,但不要求理解,且没有经过证实,无需过分认真 我们先补充一个知识,这个知识教科书内没有强调,但了解它有助于我们更好地证明第一个反应也不是可逆反应:复分解反应的实质是发生复分解反应的两种化合物在水溶液中交换离子。 AgNO 3 {\displaystyle {\ce {AgNO3}}} 在水中形成 Ag + {\displaystyle {\ce {Ag+}}} 和NO3-,HCl在水中形成 H + {\displaystyle {\ce {H+}}} 和 Cl − {\displaystyle {\ce {Cl-}}} 。将两种溶液倒入一个烧杯中,假设时间暂停,现在水中已经有Ag+、NO3-、H+、Cl-四种离子了。这个时候,时间继续,颜色不同的阴阳离子分别交换,重新结合成两种新物质,即AgCl和HNO3。我们假设二者还能反应,但是在AgCl和HNO3反应生成 AgNO 3 {\displaystyle {\ce {AgNO3}}} 和HCl的同时,HCl又和 AgNO 3 {\displaystyle {\ce {AgNO3}}} 反应生成AgCl等。用开玩笑的话来说, AgNO 3 {\displaystyle {\ce {AgNO3}}} 还没有站稳脚跟,就变回AgCl了。 化合物发生复分解反应需满足以下条件: 注:(任一)意为两种化合物中只要有一种可溶于水就可以发生复分解反应; (二者)意为两种化合物必须都可溶于水才可以发生复分解反应; “酸”意为两种化合物中只要酸可溶于水就可以发生复分解反应。 中和反应是复分解反应的一种,但中和反应不是基本反应类型之一。酸和碱反应生成盐和水的反应为中和反应。 中和反应同样具备复分解反应的各种特点。 氢氧化钠和盐酸反应是一个典型的复分解反应,化学方程式如下: NaOH + HCl ⟶ NaCl + H 2 O {\displaystyle {\ce {NaOH +HCl -> NaCl +H2O}}} 中和反应发生时总会放出热量,且在酸和碱完全反应的时候,溶液的温度最高。 在酸和碱恰好完全反应时,反应容器中指剩下水和盐,这个时候溶液总是呈中性,因为使酸有共性的氢离子和使碱有共性的氢氧根离子已经结合成为水。我们据此得出中和反应的实质为酸溶液中的氢离子和碱溶液中的氢氧根离子结合生成水。用离子方程式(不要求掌握)表示如下: H + + OH − ⟶ H 2 O {\displaystyle {\ce {H+ {+}OH- -> H2O}}} 中和反应同时与改良酸性土壤、处理化工厂废水、缓解胃酸过多引起的胃痛甚至缓解昆虫叮咬引起的酸痛都有所关系。
MySQL/Language/Using NULL NULL是SQL的一个特殊值,同义"Unknown"。 NULL值可赋值、可比较。 INSERT into Singer (F_Name, L_Name, Birth_place, Language) values ("", "Homer", NULL, "Greek"), ("", "Sting", NULL, "English"), ("Jonny", "Five", NULL, "Binary"); 空字符串不是NULL。 与NULL比较: SELECT * from Singer WHERE Birth_place IS NULL; or SELECT * from Singer WHERE Birth_place IS NOT NULL; or SELECT * from Singer WHERE isNull(Birth_place) 如果某列存在 NULL 值时,如果在该列上执行“不等于”查询,select结果不包含为 NULL 值的行。解决办法是增加isnull(col_name)查询条件。 COUNT函数指定列名时不计数NULL值所在的行,但指定参数为*则统计NULL: select count(Birth_place),count(*) from Singer; 0, 1 阿里巴巴《Java开发手册》强制规定:不要使用 count(列名) 或 count(常量) 来替代 count(),count() 是 SQL92 定义的标准统计行数的语法,跟数据库无关,跟 NULL 和非 NULL 无关。 说明:count(*) 会统计值为 NULL 的行,而 count(列名) 不会统计此列为 NULL 值的行。 使用 count(distinct col1, col2) 查询时,如果其中一列为 NULL,那么即使另一列有不同的值,那么查询的结果也会将数据丢失 使用sum在包含NULL的列上计算,结果为NULL 。 可使用select ifnull(sum(col_name), 0) from tbk_name 绝大多数操作符如果有一个操作数为NULL,结果也将是NULL: SELECT (NULL=NULL) OR (NULL<>NULL) OR (NOT NULL) OR (1<NULL) OR (1>NULL) OR (1 + NULL) OR (1 LIKE NULL) 函数COALESCE (expression_1, expression_2, ...,expression_n)从左至右依次计算各参数表达式,遇到非null值即停止计算并返回该值。如果所有的表达式都是空值,最终将返回一个空值。 例如,把空值当作数值0: SELECT COALESCE(colname,0) from table where COALESCE(colname,0) > 1; 把NULL的日期当作当前日期: ORDER BY (COALESCE(TO_DAYS(date),TO_DAYS(CURDATE()))-TO_DAYS(CURDATE())) EXP(SUM(LOG(COALESCE(''*the fieldName you want to multiply*'',1))) SELECT t4.gene_name, COALESCE(g2d.score,0), COALESCE(dgp.score,0), COALESCE(pocus.score,0) FROM t4 LEFT JOIN g2d ON t4.gene_name=g2d.gene_name LEFT JOIN dgp ON t4.gene_name=dgp.gene_name LEFT JOIN pocus ON t4.gene_name=pocus.gene_name; 用于判断第一个表达式是否为 NULL,如果为 NULL 则返回第二个参数的值,如果不为 NULL 则返回第一个参数的值 (同COALESCE一样,能做到在判断第一个值为空的情况下,直接返回第二个值,不同的是ifnull只能传两个参数,而COALESCE可以传递多个参数) IFNULL(expr1,expr2) 如果expr1不为NULL, IFNULL()返回expr1, 否则返回expr2. mysql> SELECT IFNULL(1,0); -> 1 mysql> SELECT IFNULL(NULL,10); -> 10 mysql> SELECT IFNULL(1/0,10); -> 10.000 mysql> SELECT IFNULL(1/0,'yes'); -> 'yes' 判断是不是null,若是则返回1,若不是返回0 若第二个参数等于第一个参数则返回null,否则返回第一次参数 空值处理可能是反直觉的。例如下述语句将删除表中所有行: DELETE FROM my_table WHERE field > NULL --(or function returning NULL) 如果希望ORDER BY时让空值排在最后: SELECT * FROM my_table ORDER BY ISNULL(field), field [ ASC | DESC ] 确定一张表中哪些列禁止为空: SELECT * FROM `information_schema`.`COLUMNS` WHERE IS_NULLABLE = 'NO' AND TABLE_NAME = 'my_table'
免疫学/细胞因子的共同特性 细胞因子 - 细胞因子的主要种类及主要功能 - 细胞因子受体家族 - 细胞因子的生物学活性 - 细胞因子与临床 由抗原、丝裂原(mitogen)等刺激物活化的细胞分泌。 是低分子量(15~30kD)的蛋白或糖蛋白。 高亲和力,高效性(10-15~10-9M的浓度范围内即可发挥其生物学作用)。 自分泌(autocrine):作用的靶细胞是其产生细胞 (如:T细胞产生的IL-2刺激T细胞本身生长)。 旁分泌(paracrine):细胞因子的产生细胞和靶细胞非同一细胞,但是二者临近,如T细胞产生的IL-2支持B细胞的殖和分化。 内分泌(endocrine):某些细胞因子,如TGF-β、TNF等,通过血液循环对远离的细胞发挥作用。 多效性:一种细胞因子对不同细胞产生不同的生物学效应。 重叠性:几种不同的细胞因子作用于同一靶细胞,产生相同或相似的生物学效应(如IL-4和IL-6均刺激B细胞增殖)。 协同性:两种或两种以上的细胞因子共同作用,且一种细胞因子强化另一种细胞因子的功能,两者表现为协同作用,如IL-5可增强IL-4诱导B细胞的IgE类别转换。 拮抗性:一种细胞因子抑制另一种细胞因子的功能。(如IL-4--IFN-γ)
工程材料/钢的热处理 热处理是将固态金属或合金在一定介质中加热、保温和冷却,以改变材料整体或表面组织,从而获得所需性能的工艺。 热处理可大幅度地改善金属材料的工艺性能和使用性能,绝大多数机械零件必须经过热处理。 与锻、铸、焊切削等工艺方法不同,热处理是改变工件内在性质的一种工艺,而工件的形状和尺寸基本不变。 热处理工艺一般包含加热、保温和冷却三个过程,其中冷却过程是钢热处理的关键。 冷却过程是钢的热处理的关键部分,它对钢在热处理后的组织和性能起着极大的作用。采用不同的冷却速度和冷却方式,可以获得不同的组织和性能。 T8钢(碳素工具钢的一种)小试样,同时加热到800°C奥氏体化,经保温后,一块从炉中取出立即放入水中冷却,即淬火;另一塊随炉冷却,即退火。结果,T8 钢经淬火后硬度高达64HRC,而退火后的硬度约为12HRC。 热处理 普通热处理 退火 正火 淬火 回火 表面热处理 化学热处理 表面淬火 将组织偏离平衡状态的钢加热到适当温度,保温一定时间,然后缓慢冷却(一般为随炉冷却),以获得接近平衡状态组织的热处理工艺叫做退火。 第一阶段是回复(recovery)。在回复的过程中,晶体內部缺陷(例如空位)會移动回复到正常晶格位置,同時內部应力场也會跟著消失。在回复阶段,先前的冷加工过的金属其电、热传导等性质将回复成原来状态。 第二阶段是再结晶(recrystallization)。再结晶过程中,新的晶粒成型,当退火过程继续进行中取代原本因內应力而变形的晶粒。 再结晶完成时,晶粒生长(grain growth)就会开始。晶粒生长过程中,小的晶粒会与大的晶粒合并,减少材料內部晶界的数目。晶粒生长的程度会严重影响到材料的机械性能。 通过完全重结晶,使热加工造成的粗大、不均匀的组织均匀化和细化,以提高性能。 使中碳以上的碳钢和合金钢得到接近平衡状态的组织,以降低硬度,改善切削加工性能。 由于冷却速度缓慢,还可消除内应力。 将钢材或钢件加热到Ac3(对于亚共析钢)和Accm(对于过共析钢)以上30 ℃~50 ℃, 保温适当时间后, 在自由流动的空气中均匀冷却的热处理称为正火。 作为最终热处理,正火可以细化晶粒,使组织均匀化,减少亚共析钢中铁素体含量,使珠光体含量增多并细化,从而提高钢的强度、硬度和韧性。 作为预先热处理,截面较大的合金结构钢件,在淬火或调质处理(淬火加高温回火)前常进行正火, 以获得细小而均匀的组织。对于过共析钢可减少二次渗碳体量,并使其不形成连续网状,为球化退火作组织准备。 改善切削加工性能 将钢加热到相变温度以上(亚共析钢为Ac3以上30 ℃~50 ℃;共析钢和过共析钢为Ac1以上30 ℃~50℃),保温一定时间后快速冷却以获得马氏体组织的热处理工艺称为淬火。 淬火常用的冷却介质是水和油。 淬火配以回火作为最终的热处理。 淬火的目的是获得马氏体组织,为钢的回火做好组织准备,然后再配以回火工艺,以改善或调整钢的性能。 钢件淬火后, 为了消除内应力并获得所要求的组织和性能, 将其加热到Ac1 以下某一温度, 保温一定时间, 然后冷却到室温的热处理工艺叫做回火。 回火热处理又分为,低温回火、中温回火和高温回火。低温回火的目的是降低淬火应力,提高工件韧性,保证淬火后的高硬度( 一般为58 HRC~64 HRC) 和高耐磨性。 主要用于处理各种高碳钢工具、模具、滚动轴承以及渗碳和表面淬火的零件。 中温回火获得回火屈氏体,具有高的弹性极限和屈服强度,同时也具有一定的韧性,硬度一般为35 HRC~45 HRC,主要用于处理各类弹簧。 通常把淬火加高温回火称为调质处理。广泛用于各种重要的机器结构件,是受交变载荷的零件,如连杆、轴、齿轮等。也可作为某些精密工件如量具、模具等的预先热处理。
Ubuntu/中文化问题列表 Ubuntu并不是专门为中国设计的操作系统,存在一些本地化方面的问题。 语言包不完整,系统文档、UI等有部分未翻译。 软件翻译缺失,一些软件没有中文翻译,或者翻译不完全。 输入法词库少,系统自带中文输入法词库较少,且没有在线同步功能。 纯文本文档乱码 PDF文字显示方块 MP3标签乱码 压缩解压乱码 FTP传输乱码 此外,还有另一些由应用软件引起的问题,比如LibreOffice对中文字体的支持。
生物信息学/blasr Blasr主要用于将Pacbio测序的reads和参考序列进行匹配。 由于Pacbio测序的reads比较长,同时含有较多的InDel错误和少量的Substitute错误,因此bowtie和bwa都不适用于对其进行比对。而Blasr能较好地进行处理这些问题。 Blasr官网 Blasr官方教程 Blasr包含在了 SMRT Analysis software suite中。安装可参考HGAP软件的安装说明。 Blasr的最新版本可以通过bioconda安装。 miniconda安装路径是/opt/biosoft/miniconda3_for_blasr/bin/ export PATH=/opt/biosoft/miniconda3_for_blasr/bin/:$PATH conda install blasr conda install bax2bam conda install bam2fastx echo 'PATH=$PATH:/opt/biosoft/miniconda3_for_blasr/bin/' >> ~/.bashrc 首先,使用sawriter命令构建参考序列的索引文件,后缀为.sa。 $ sawriter genome.fasta.sa genome.fasta 然后,使用blasr命令进行比对。当然也可以不进行上一步,直接运行blasr命令。常 用的blasr示例: $ blasr reads.fasta genome.fasta $ blasr reads.fasta genome.fasta -sa genome.fasta.sa -header -m 5 -nproc 4 -out blasr.out5 $ blasr reads.bax.h5 genome.fasta -sa genome.fasta.sa -maxScore -100 -minMatch 15 Blasr常用参数: 输入文件: reads.fasta 输入fasta格式的文件。文件中包含Pacbio测序所得的subreads序列。 reads.bax.h5 输入HDF5格式的Pacbio测序结果。由于含有测序质量数据,能更加容易检测SNP和InDel,从而提高比对速度。 -sa suffixArrayFile 输入参考序列的索引文件。可以使用sawriter生成。若不提供该文件,则程序会先生成该文件后,再进行比对。若需要以同样的参考序列多次运行blasr,则提供该文件能节约时间。 Reads参数: -noSplitSubreads (false) 不对adapters序列进行打断,从而得到subreads进行比对。 -useccsdenovo 仅对CCS (circular consensus sequence)数据进行比对,并报告期比对结果。 输出参数: -bestn n (10) 输出最优的n个比对结果。 -sam 输出结果为sam格式。 -out out (terminal) 设置输出文件路径。默认下输出到标准输出。 -unaligned FILE 将没有比对的reads输出到文件FILE。 -m TYPE 如果不输出为SAM格式,则输出为其它文本格式: TYPE=0 :类似NCBI blast网页结果的格式,适合人类阅读。 TYPE=1 :输出有11列的表格结果。默认设置。 TYPE=2 :输出XML格式结果。 TYPE=3 :Vulgar format (deprecated)。 TYPE=4 :输出有13列的表格结果。 TYPE=5 :输出有19列的表格结果。 输出格式详细文档:https://github.com/PacificBiosciences/blasr/wiki/Blasr-Output-Format。 -header 若输出格式为表格格式,则输出一行头部信息,来指明各列的意义。 -minPctldentity p(0) 仅报告Identity百分比大于该值的比对结果。 -maxScore m (0) 仅报告分值低于此值的比对结果。分值是越小越好。 -minReadLength 1 (50) 略过长度低于此值的reads。 -minSubreadLength 1 (0) 不对长度低于此值的subreads进行比对。 比对参数: -minMatch m (12) 设定最小种子序列长度。此值越大,运行速度越快,但匹配率会降低。 -nCandidates n (10) 设置最佳比对结果数目。该值越大,则比对速度越慢。 并行化参数: . -nproc N (1) 设置运行的线程数。 -start S (0) 从第S个read开始进行比对。 -stride S (1) 每S个read则对1个read进行比对。 -subsample (0) 随机选取此比例的「eads进行比对。
雙碼注音輸入法 給注音使用者的雙拼輸入法。學習雙拼輸入法之前不再需要額外學習漢語拼音。 按鍵定位類似漢語拼音、通用拼音,但是拼音規則為注音。 請參考 如何安裝與設定? 海(ㄏ,ㄞ)賊(ㄗ,ㄟ)遠看(ㄩㄢ,ㄎ,ㄢ)炸(ㄓ,ㄚ)激昂(ㄐ,ㄤ)怪鷹(ㄍ,ㄨㄞ,ㄧㄥ) 西汪洋(C,ㄨㄤ,ㄧㄤ)恩德雲(ㄣ,ㄉ,ㄩㄣ)吹陰(ㄔ,ㄨㄟ,ㄧㄣ)風(ㄈ,ㄥ) 尊雲(ㄗ,ㄨㄣ,ㄩㄣ)勇龍兒(ㄩㄥ,ㄌ,ㄨㄥ,ㄦ)騷(ㄙ,ㄠ)瞥(ㄆ,ㄧㄝ)肉(ㄖ,ㄡ)團(ㄊ,ㄨㄢ) 夏蛙(ㄒ,ㄧㄚ,ㄨㄚ)卻(ㄑ,ㄩㄝ)說喔(ㄕ,ㄨㄛ,ㄛ)保佑(ㄅ,ㄧㄡ)眠(ㄇ,ㄧㄢ)鳥(ㄋ,ㄧㄠ) 小學中文科常用字表 下面為文章附錄雙碼輸入按鍵 我所知道的康橋《節錄》 我的彼得《節錄》 孔乙己《節錄》 老殘遊記第一回《節錄》 老殘遊記第二回《節錄》 老殘遊記第三回《節錄》 老殘遊記第四回《節錄》 槳聲燈影裏的秦淮河《節錄》 歌聲《節錄》 匆匆《節錄》 荷塘月色《節錄》
工程材料/白铜 以镍为主要合金元素的铜合金称为白铜。 在固态下,铜与镍无限固溶,因此工业白铜的组织为单相α固溶体。它有较好的强度和优良的塑性,能进行冷、热变形。冷变形能提高强度和硬度。它的抗蚀性很好,电阻率较高。 白铜的牌号,“B+合金元素Ni 的含量”或“B+第二主加合金元素符号+Ni 含量+ 第二主加元素含量”,其中,B为汉字青的拼音首字母。 用于制造船舶仪器零件、化工机械零件及医疗器械等。锰含量高的锰白铜可制作热电偶丝。 常用白铜B30、B19、B5、BZn 15-20、BMn 3-12、BMn 40-1.5等。
藥理學/抗结核药及抗麻风药/結核病藥物的臨床使用 在體內的分枝桿菌可以係分成三種,每種對藥物反應不同 第一種為存在細胞外,會快速分裂的細菌,大多數分支桿菌屬於此,可被 Isoniazid 殺死,之後用 Rifampin, Streptomycin 與其他藥物 第二種常存在於乾酪肉芽腫中,細菌處於半休眠狀態。Pyrazinamide 在 M. tuberculosis 中會被轉化成 pyrazinoic acid,對這類細菌有效,其他藥物像是 Rifampin 和 Isoniazid 也有活性 第三種是會寄居於巨噬細胞內,Rifampin, Isoniazid 和 Quinolones 可以對抗這類分枝桿菌 Isoniazid 首選,5~10 mg/kg(通常每日 300 mg) 應空服服用,與抗酸劑共服應間隔 2 小時以上 Rifampin 每日 600 mg,持續四個月 給懷疑抗 isoniazid TB 或是患者無法使用 isoniazid 使用四個月 rifampin 治療,在安全性和成本效益上,都比服用 isoniazid 九個月好 因為肝毒性,不建議使用 Pyrainamide + Rifampin 對於有高藥物交互作用風險的患者,使用每日 300 mg rifabutin 代替 rifampin 使用 fluoroquinolone 持續 12 個月,可有效降低多重抗藥性分枝桿菌感染者,從潛伏期到發病的發生率 Ethambutol+Levofloxacin 或許有效,但資料有限 懷孕婦女、酗酒者、食慾不好者,接受 isoniazid 治療時,應每日服用 10~50 mg pyridoxine(維他命 B<sub6,以降低神經病變發生率 所有接受潛伏期 TB 感染者,需每月定期監測藥物不良反應和發展成開放性 TB 之可能性 a:由訓練合格的關懷員,把藥送到患者手中、看著患者服藥入口、等患者吃完藥才走的一種治療方式 當發現患者有開放性 TB 時,應做藥物敏感試驗,就試驗結果選擇適合藥物 使用 Pyrazinamide 兩個月後(服用 56 次)應停藥 Rifapentine 不能用於 HIV 患者,或是肺外分枝桿菌感染 治療週期較長,9~12 個月 Levofloxacin Isoniazid, Rifampin, Ethambutol 九個月 其中 isoniazid 和 ethambutol 更為安全 應補充維他命 B Streptomycin 可能使新生兒失去聽力 在沒有其他替代藥品的情況下,streptomycin 依然要使用 Ethionamide 可能導致早產和畸胎、唐氏症候群 p-Aminosalicyclic acid 或許安全,但資料不多 Cycloserine 已知會穿過胎盤,但對胎兒影響未知,因此仍不建議用於懷孕婦女 Ciprofloxacin, Levofloxacin, Moxifloxacin 在未成熟動物上,可能致承受體重關節的軟骨永久傷害 Quinolones 不能用於哺乳母親 Isoniazid 和 rifampin 不需做劑量調整,因為他們主要由肝臟代謝 因會擔心周邊神經病變,isoniazid 服藥頻率可能往下調整 Pyrazinamide 和 ethambutol 需調整服藥頻率 Ciprofloxacin 和 Moxifloxacin 有 50% 由腎臟排除,但不需調整一日劑量 Isoniazid, Pyrazinamide 和 p-Aminosalicyclic acid 的代謝物主要由腎臟排出,在腎衰竭者上是否造成不良反應仍不清楚 Ethioamide 與其 sulfoxide 代謝物由肝臟清除,劑量不需調整 Cycloserine 應做 TDM,避免劑量相關毒性發生 換成 Isoniazid 或 Rifampin 組成的 regimens 資料少 相對較親水性的藥物可以理想體重給藥:isoniazid, pyrazinamide, aminoglycoside, capreomycin, ethambutol, p-aminosalicyclic acid, cycloserine
免疫学/细胞因子 细胞因子的共同特性 - 细胞因子的主要种类及主要功能 - 细胞因子受体家族 - 细胞因子的生物学活性 - 细胞因子与临床 细胞因子( Cytokine, CK )是由细胞分泌的具有高活性、多功能的小分子蛋白质,通过结合细胞表面的相应受体发挥生物学作用,参与细胞免疫应答、体液免疫应答、炎症反应、调节细胞生长分化、诱导细胞凋亡、促进损伤修复等,在一定条件下也可参与多种疾病的发生。
Ubuntu/字体 计算机有自身的字符编码来表示字符。如ASCII中,十六进制数字41表示字母A。字符编码不能直接被显示为字符,就像41只能以二进制存储,不能显示为A。因此需要用到字体作为图形化显示、打印的媒介,将41映射到A。 对于一种字体,其每一个字符图形对应一个字符编码;而反过来则不一定,一个字符编码不一定能在此字体中找到对应的字符图形。通常一种字体是针对某一些语言设计的,所以需要适当的字体才能准确显示特定语言的内容。比如Libretion Sans字体只包含了拉丁字符,故不能显示中文字符。中文字体如文泉驿正黑能显示中文字符,这就是我们需要中文字体的原因。 字体可分为点阵字体和矢量字体。点阵字体放大会产生锯齿,而矢量字体则可以保持平滑。 矢量字体是矢量图形,然而最终以位图形式显示在屏幕上。从矢量字体生成位图的过程叫做字体渲染。字体渲染的方法不同,会导致同一字体渲染的效果不同。Ubuntu和Windows 7的字体渲染效果不同是因为它们采用了不同的渲染方法:Windows 7字体锐利清晰;Ubuntu字体平滑美观。 字体是以字体文件形式存在的。TrueType矢量字体通常以.ttf结尾,是最常用的,被广泛支持的矢量字体格式。 在Ubuntu中,双击打开字体文件,即可用”字体察看器“打开,选择安装。安装字体其实是将字体文件复制到家目录的 .fonts 文件夹中了。该字体仅仅能被当前用户使用,而对其他用户无影响,属于用户字体。若想添加系统字体,需要将字体复制到 /usr/share/fonts/ 文件夹中。若要删除字体,只要删除对应的字体文件即可。 和绘画、音乐一样,字体也是拥有版权的。虽然大多数时候,您可以在未收到提醒的情况下直接安装字体,但并不意味着这样是合法的。 如果您要在自己的计算机上安装Windows系统字体,请确保您拥有此Windows系统的正版许可。该许可允许您在此计算机上使用这些字体。若您没有正版许可,那么这样做是不被允许的。 如果您想在计算机上安装受版权保护的字体,则必须购买使用许可。 Ubuntu系统字体均是自由授权的,您可以免费使用,并在Ubuntu软件中心中下载安装其他字体。比较受欢迎的中文字体有文泉驿系列字体,文鼎开源字体。 系统拥有默认字体。在没有特别说明的情况下,就以此字体为默认显示。默认字体即将字体按照优先级排序,排序结果即默认字体顺序。 Serif,衬线字体,是一个字体族而非一种字体。当选择字体为Serif时,会显示Serif族默认字体,也就是默认衬线字体。衬线字体适合打印,而不适合液晶屏幕显示。 Sans Serif,或 Sans,无衬线字体,是一个字体族而非一种字体。当选择字体为Sans Serif时,会显示Sans Serif族默认字体,也就是默认无衬线字体。无衬线字体适合屏幕显示,而不适合打印。 Monospace,或Mono,等宽字体,意思是每个字符宽度相同(一个中文字符宽度等于两个英文字符)。当选择Monospace时,会显示Monospace族默认字体,也就是默认等宽字体。等宽字体适合显示程序代码等需要对齐字符的文本。 如果所选字体无法显示当前字符,或者排在第一位的默认字体不能显示此字符的时候,系统会按照优先级寻找能够显示此字符的字体。因此,除非所有安装字体都无法显示此字符,系统总能找出对应的字体显示。 字体配置有两种形式,系统配置和用户配置。 系统配置更改系统配置文件,保存在/etc/fonts/fonts.conf文件中,作用影响每个用户。 用户配置更改用户配置文件,保存在家目录~/.fonts.conf文件中,仅影响此用户设置。 用户配置的优先级高于系统配置,因此当有用户配置时,会优先依照用户配置。出于安全性和可操作性考虑,建议使用用户配置。 用户配置即修改家目录中的.fonts.conf文件。这个文件默认是没有创建的,您需要新建此配置文件。 接下来就是要对各种字体进行优先级排序,分为三类:Sans,Serif,Mono。 文泉驿提供了一个简便的在线配置工具,可方便生成配置内容: http://wenq.org/cloud/fcdesigner_local.html 拖动字体排序,完成后点击生成按钮,即可自动生成配置文件内容。将内容复制到.fonts.conf文件中,保存在家目录,完成配置。结果会立即生效,无需重启计算机。 也可按照下面的例子手动编辑,但过程较为繁琐:
生物信息学/samtools Samtools (http://www.htslib.org/)是一个用于操作sam和bam文件的工具合集。新 版本(>=1.0版本)主要包含Samtools、BCFtools和HTSlib三个部分。新版的samtools 将Samtools和BCFtool分离开,成为2个独立的软件包。这2个都运用了 HTSlib, 并且其软件包中都包含了 HTSlib。这三部分的的功能分别为: Samtools: 对SAM/BAM/CRAM格式文件进行读、写、索引和查看操作。 BCFtools: 对 SNP 和 short indel 进行calling/filtering/sunimarising,对BCF2/VCF/gVCF 格式文件进行读 写操作。 HTSlib: 用于高通量数据读写操作的C library。 Samtools是Linux下进行SAM文件操作的工具。它还有很多其它有版本:比如C++ 版本的 BamTools; Java 版本的 Picard;Perl 版本的 Bio-SamTools; Python 版本的 Pysam等。 Samtools的安装如下: wget https://github.com/samtools/samtools/releases/download/1.2/samtools-1.2.tar.bz2 -P ~/software/ tar jxf ~/software/samtools-1.2.tar.bz2 -C /opt/biosoft/ cd /opt/biosoft/samtools-1.2/ ./configure --prefix=/opt/biosoft/samtools-1.2/ make echo 'PATH=$PATH:/opt/biosoft/samtools-1.2/bin/' >> ~/.bashrc source ~/.bashrc # installing samtools and bcftools #wget https://github.com/samtools/bcftools/releases/download/1.3.1/bcftools-1.3.1.tar.bz2 -P ~/software/ tar jxf ~/software/bcftools-1.3.1.tar.bz2 -C /opt/biosoft/ cd /opt/biosoft/bcftools-1.3.1 make -j 4 echo 'PATH=$PATH:/opt/biosoft/bcftools-1.3.1/' >> ~/.bashrc source ~/.bashrc
雙碼注音輸入法/我所知道的康橋《節錄》 文章內容來源為維基文庫 以下輸入雙碼注音包含音調(12345) 這(ae4)河(he2)身(od1)的(de5)兩(lc3)岸(ek4)都(dr1)是(o4)四(s4)季(ji4) 常(vj2)青(qg1)最(zv4)蔥(cl1)翠(cv4)的(de5)草(cs3)坪(pg2)。(.)從(cl2) 校(xn4)友(ir3)居(jy1)的(de5)樓(lr2)上(oj4)望(uj4)去(qu4),(,)對(dv4) 岸(ek4)草(cs3)場(vj2)上(oj4),(,)不(bu4)論(lz4)早(zs3)晚(uk3),(,) 永(yf3)遠(yk3)有(ir3)十(o2)數(ou4)匹(pi1)黃(hx2)牛(nb2)與(y3)白(bh2) 馬(ma3),(,)脛(jg4)蹄(ti2)沒(mo)在(zh)恣(z4)蔓(mk4)的(de5)草(cs3) 叢(cl2)中(al1),(,)從(cl1)容(rl2)的(de5)在(zh4)咬(is3)嚼(jn2),(,) 星(xg1)星(xg1)的(de5)黃(hc2)花(hx1)在(zh4)風(ff1)中(al1)動(dl4)盪(dj4) ,(,)應(if4)和(he4)著(ae5)它(ta1)們(md5)尾(uw3)鬃(rl2)的(de5)掃(ss3) 拂(fu2)。(.)橋(qn2)的(de5)兩(lc3)端(dt1)有(ir3)斜(xp2)倚(i3)的(de5) 垂(vv2)柳(lb3)與(y3)掬(jy2)蔭(id4)護(hu4)住(au4),(,)水(ov3)是(o4) 澈(ve4)底(di3)的(de5)清(qg1)澄(vf2),(,)深(od1)不(bu4)足(wu2)四(s4) 尺(v3),(,)勻(ys2)勻(ys2)的(de5)長(aj3)著(ae5)長(vj2)條(tn2)的(de5) 水(ov3)草(cs3)。(.)這(ae4)岸(ek4)邊(bm1)的(de5)草(cs3)坪(pg2)又(ir4) 是(o4)我(uo3)的(de5)愛(eh4)寵(vl3),(,)在(zh4)清(qg1)朝(vs2)在(zh4) 傍(bj)晚(uk3),(,)我(uo3)常(vj2)去(qy4)這(ae4)天(tm1)然(rk2)的(de5) 織(a1)錦(jv)上(oj4)坐(wo4)地(di4),(,)有(ir3)時(o2)讀(du2)書(ou1) ,(,)有(ir3)時(o2)看(kk4)水(ov3),(,)有(ir3)時(o2)仰(ij3)臥(uo4) 著(ae5)看(kk4)天(wm1)空(kl1)的(de5)行(xg)雲(ud2),(,)有(ir3)時(o2) 反(fk3)仆(pu1)著(ae5)摟(lr3)抱(bs4)大(da4)地(di4)的(de5)溫(ud1)軟(rt3)。(.) 但(dk4)河(he2)上(oj4)的(de5)風(ff1)流(lb2)還(hh2)不(bu4)止(a3)兩(lc3) 岸(ek4)的(de5)秀(xb4)麗(li4)。(.)你(ni3)得(dw3)買(mh3)船(vt2)去(qy4) 玩(uk2)。(.)船(vt)不(bu4)止(a3)一(i1)種(al3):(:)有(ir3)普(pu3) 通(tl1)的(de5)雙(pc1)漿(jc3)划(hx2)船(vt2),(,)有(ir3)輕(qg1)快(kg4) 的(de5)薄(bo2)皮(pi2)舟(ar1),(,)有(ir3)最(zv4)別(bp2)緻(a4)的(de5) 長(vj2)形(xg2)撐(vf1)篙(gs1)船(vt2)。(.)最(zv4)末(mo4)的(de5)一(i1) 種(al3)是(o4)別(bp2)處(vu4)不(bu4)常(vj2)有(ir3)的(de5):(:)約(ye1) 莫(mo4)有(ir3)二(el4)丈(aj4)長(vj2),(,)三(sk1)尺(v3)寬(kt1),(,) 你(ni3)站(ak4)直(a2)在(zh4)船(vt2)梢(os1)上(oj4)用(yf4)長(vj2)竿(gk1) 撐(vf1)著(ae5)走(zr3)的(de5)。(.)
MySQL/Language/Operators 操作符用于写表达式,可作用于常量值、变量值、列名等。 SELECT True = True -- returns 1 SELECT True = False -- returns 0 SELECT True <> False -- returns 1 SELECT True != True -- returns 0 NULL值与非空值比较,结果为NULL。判断一个值是否为null,应该用IS: SELECT (NULL IS NULL) -- returns 1 SELECT (1 IS NULL) -- returns 0 SELECT (True IS True) -- returns 1 检查一个值 非空: SELECT (True IS NOT NULL) -- returns 1 运算符<=>同时兼顾了空值比较与普通值比较: SELECT NULL <=> NULL -- 1 SELECT NULL <=> True -- NULL SELECT True <=> True -- 1 SELECT col1 <=> col2 FROM myTable 没有空值安全的不等比较运算符,变通办法是: SELECT NOT (col1 <=> col2) FROM myTable IS与IS NOT可用于布尔比较,用于保留字TRUE, FALSE 与 UNKNOWN (同义词NULL). SELECT 1 IS TRUE -- returns 1 SELECT 1 IS NOT TRUE -- returns 0 SELECT 1 IS FALSE -- returns 0 SELECT 0 IS FALSE -- returns 1 SELECT (NULL IS NOT FALSE) -- returns 1: unknown is not false SELECT (NULL IS UNKNOWN) -- returns 1 SELECT (NULL IS NOT UNKNOWN) -- returns 0 SELECT 100 > 0 -- returns 1 SELECT 4 > 5 -- return 0 SELECT 1 < 2 -- returns 1 SELECT 2 < 2 -- returns 0 也可用于文本: SELECT 'a' < 'b' -- returns 1 实际上,字符比较使用COLLATION定义的排序规则。 <= 或>=操作符。 SELECT 2 BETWEEN 10 AND 100 -- 0 SELECT 10 BETWEEN 10 AND 100 -- 1 SELECT 20 BETWEEN 10 AND 100 -- 1 上述范围是闭区间。 也可以用NOT BETWEEN: SELECT 8 NOT BETWEEN 5 AND 10 -- returns 0 SELECT 5 IN (5, 6, 7) -- returns 1 SELECT 1 IN (5, 6, 7) -- returns 0 SELECT 5 IN ('a', 'z', '5') -- returns 1 ?? 值的列表个数没有限制。 可以使用NOT IN: SELECT 1 NOT IN (1, 2, 3) -- returns 0 MySQL没有真正的BOOLEAN类型。FALSE是0的同义词。在布尔上下文中空字符串等效于FALSE。TRUE是1的同义词。在不二上下文中所有非空且非FALSE的数据被认为是TRUE UNKNOWN是NULL的同义词。 特殊日期0/0/0是NULL. NOT是单元运算符 SELECT NOT 1 -- returns 0 SELECT NOT FALSE -- returns 1 SELECT NOT NULL -- returns NULL SELECT NOT UNKNOWN -- returns NULL !是NOT的同义符号: SELECT !1 如果一个操作数为NULL,结果为NULL SELECT 1 AND 1 -- returns 1 SELECT 1 AND '' -- return 0 SELECT '' AND NULL -- returns NULL &&是AND的同义符号; SELECT 1 && 1 如果两个操作数都为NULL,结果为NULL. SELECT TRUE OR FALSE -- returns 1 SELECT 1 OR 1 -- returns 1 SELECT FALSE OR FALSE -- returns 0 SELECT NULL OR TRUE -- returns 1 ||是OR的同义: SELECT 1 || 0 如果一个操作数为NULL,结果为NULL SELECT 1 XOR 0 -- returns 1 SELECT FALSE XOR TRUE -- returns 1 SELECT 1 XOR TRUE -- returns 0 SELECT 0 XOR FALSE -- returns 0 SELECT NULL XOR 1 -- returns NULL 可以指定数的正号 '+': SELECT +1 -- return 1 可以指定数的负号 '-' SELECT -1 -- returns -1 SELECT -+1 -- returns -1 SELECT --1 -- returns 1 求和: SELECT 1 + 1 -- returns 2 减法 SELECT True - 1 -- returns 0 乘法: SELECT 1 * 1 -- returns 1 除法,返回浮点数: SELECT 10 / 2 -- returns 5.0000 SELECT 1 / 1 -- returns 1.0000 SELECT 1 / 0 -- returns NULL (not an error) 整数除法DIV,返回整数,没有余数: SELECT 10 DIV 3 -- returns 3 求余数,用 '%' 或 MOD: SELECT 10 MOD 3 -- returns 1 整型到浮点类型: SELECT 1 + 0.0 -- returns 1.0 SELECT 1 + 0.000 -- returns 1.000 SELECT TRUE + 0.000 -- returns 1.000 字符到整型: SELECT '1' + 0 -- returns 1 SELECT '1' + FALSE -- returns 1 SELECT <nowiki>''</nowiki> + <nowiki>''</nowiki> -- returns 0 MySQL没有文本操作符。 加号+把两个文本转换为整型再相加。 应该用CONCAT()函数连接两个字符串。 字符串模糊匹配: SELECT * FROM articles WHERE title LIKE 'hello world' 匹配是大小写不敏感的,例外情况: 如果列被声明为BINARY 当表达式包含BINARY子句: SELECT * 'test' LIKE BINARY 'TEST' -- returns 0 通配符: _ 任何单个字符 % 任何长度的字符序列 "\"转义引号 ("'")不受ESCAPE子句影响。"\"不能转义自身。 例子: 以"hello"开头的词: SELECT * FROM articles WHERE title LIKE 'hello%' 以"world"结尾的词: SELECT * FROM articles WHERE title LIKE '%world' 包含"gnu"的词: SELECT * FROM articles WHERE title LIKE '%gnu%' 转义保留字符: SELECT * FROM articles WHERE title LIKE '\_%' -- titles starting with _ SELECT * FROM articles WHERE title LIKE '\%%' -- titles starting with % 使用其他指定的转义字符: SELECT * FROM articles WHERE title LIKE '/_%' ESCAPE '/' 使用LIKE就不会忽略两端空格符: SELECT 'word' = 'word ' -- returns 0 SELECT 'word' LIKE 'word ' -- returns 0 LIKE也用于数值: SELECT 123 LIKE '%2%' -- returns 1 NOT LIKE: SELECT 'a' NOT LIKE 'b' -- returns 1 SELECT `word1` SOUNDS LIKE `word2` FROM `wordList` -- short form SELECT SOUNDEX(`word1`) = SOUNDEX(`word2`) FROM `wordList` -- long form 使用REGEXP表示正则表达式模式 SELECT 'string' REGEXP 'pattern' RLIKE是REGEXP的同义。 Bit-NOT: SELECT ~0 -- returns 18446744073709551615 SELECT ~1 -- returns 18446744073709551614 Bit-AND: SELECT 1 & 1 -- returns 1 SELECT 1 & 3 -- returns 1 SELECT 2 & 3 -- returns 2 Bit-OR: SELECT 1 | 0 -- returns 1 SELECT 3 | 0 -- returns 3 SELECT 4 | 2 -- returns 6 Bit-XOR: SELECT 1 ^ 0 -- returns 1 SELECT 1 ^ 1 -- returns 0 SELECT 3 ^ 1 -- returns 2 Left shift: SELECT 1 << 2 -- returns 4 Right shift: SELECT 1 >> 2 -- 0 结构IF ... THEN ... [ELSEIF ... THEN ...] ELSE ... END IF;只能用于存储过程。表达式中应该使用: IF(condition, ifTrue, ifFalse);. 例如SELECT IF(-1 < 0, 0, 1); returns 0. SELECT CASE WHEN condition THEN ifTrue ELSE ifFalse END; 例子: SELECT CASE WHEN '-1 < 0' THEN 0 ELSE 1 END; renvoie 0. CASE v WHEN 2 THEN SELECT v; WHEN 3 THEN SELECT 0; ELSE BEGIN END; END CASE; SELECT CASE v WHEN 1 THEN 'a' WHEN 2 THEN 'b' WHEN 3 THEN 'c' WHEN 4 THEN 'd' ELSE 0 END as value 优先级列表: INTERVAL BINARY, COLLATE ! - (unary minus), ~ (unary bit inversion) ^ *, /, DIV, %, MOD -, + <<, >> & | =, <=>, >=, >, <=, <, <>, !=, IS, LIKE, REGEXP, IN BETWEEN, CASE, WHEN, THEN, ELSE NOT &&, AND XOR ||, OR := 修改器: PIPES_AS_CONCAT - 如果打开这种SQL模式,||优先级比^高,但比 - 与 ~ 低。 HIGH_NOT_PRECEDENCE - 如果打开这种SQL模式, NOT 与 ! 优先级相同。 SELECT (1 + 1) * 5 -- returns 10 为了可读性: SELECT 1 + (2 * 5) -- the same as 1 + 2 * 5 两种用法: SELECT INTERVAL(6,1,2,3,4,5,6,7,8,9,10); --返回不小于第一个数的的索引。从零开始的索引。这里返回结果为6 SELECT NOW()-INTERVAL 24 HOUR -- 返回 前一天的时刻 UPDATE `myTable` SET `uselessField`=0 SELECT @myvar := 1 SELECT INTO用于一个或多个同时赋值。 http://dev.mysql.com/doc/refman/5.7/en/control-flow-functions.html
工程材料/纯铝 纯铝的性能特点 纯铝是一种银白色的金属。 熔点低、密度小。熔点—— 657°C ;密度—— 2.7g/cm3,仅为铁的三分之一。 导电导热性能好,仅次于金、银和铜等。 抗大气腐蚀性能好。 具有优异的加工工艺性能。铝具有面心立方晶格,强度低、塑性好,可经冷塑性变形使其强化,能通过冷、热变形制成各种型材,并且便于切削。 纯铝的牌号 工业纯铝牌号—— L1、L2、……L7,L为铝的汉语拼音声母,其后的数字越大,纯度越低。 L1——L2——L3——L4——L5——L6——L7 纯度降低>>> 高纯铝牌号——L01 、L02 、L03 、L04 ,编号越大,纯度越高。 L01——L02——L03——L04——L05——L06——L07 纯度升高>>> 纯铝的主要用途 工业纯铝主要用来制造电线、电缆,以及要求具有导热和抗大气腐蚀性能而对强度要求不高的零件和生活用具。
Ubuntu/语言包 Ubuntu是国际化的Linux发行版,支持全部主要语言。 而对多种语言的支持,是通过语言包实现的。 安装系统时,第一个界面就是选择语言。您在这里选择的语言会被安装并作为系统默认语言。 同时,不论您选择哪种语言,英语也会被默认安装。因此,若您使用简体中文,你的Ubuntu系统安装完成后,会带有简体中文和英语两套语言包。 如果您使用LiveCD安装,则语言包需要从网络下载。若您没有连接网络或者中途跳过语言包下载,则不能安装完整的语言包,只有基本语言包。在您安装完成启动系统后,会提示您安装完整的语言支持。 如果在安装完系统之后,您想安装/删除某种语言: 系统设置 → 语言支持 → 添加或删除语言 → 选择想要安装/删除的语言。 如果您的系统中安装了多种语言,您可以选择当前用户的默认语言: 系统设置 → 语言支持,拖动语言排序。 最前面的语言会作为当前用户的默认语言,同一系统的不同用户可以拥有独立的语言设置。如果您想为所有用户设置语言,可以单击应用到整个系统。
生物信息学/SAM数据格式 SAM(The Sequence Alignment/Map format)格式,即序列比对文件的格式。详细的介绍文档: http://samtools.github.io/hts-specs/SAMv1.pdf。 SAM文件由两部分组成:头部区和主体区,都以tab分列。 头部区:以'@'开始,体现了比对的一些总体信息。比如比对的SAM格式版本,比对的参考序列,比对使用的软件等。 主体区:比对结果,每一个比对结果是一行,有11个主列和1个可选列。 @HD VN:1.0 SO:upsorted 头部区第一行:VN是格式版本;SO表示比对排序的类型, 有unkown(default), unsorted, query name和coordinate几种。 samtools软件在进行排序后不能自动更新bam文件的SO值。picard却可以。 @SQ SN:A.auricula_all_contig_1 LN:9401 参考序列名。这些参考序列决定了比对结果sort的顺序。SN是参考序列名;LN是参考序列长度; @RG ID:sample01 Read Group. 1个sample的测序结果为1个Read Group;该sample可以有多个library的测序结果。 数据编号信息。若对数据进行编号,则将其信息记录在@RG中。 GATK软件运行时输入的SAM格式文件中必须含有该信息。 @PG ID:bowtie2 PN:bowtie2 VN:2.0.0-beta7 生成SAM文件所使用的比对件。 XO和XG是由BWT搜索生成,CIGAR字符串有Smith-Waterman比对,这两个内容不同不是bug。 在使用bwa、bowtie、tophat、hisat或STAR比对软件对reads进行比对后,可以获得了 SAM文件。这些sam文件记录着比对的结果。但是在后续分析中常常需要对sam格式文件进行操作。比如,对比对结果按reads比对到参考序列的位置进行排序,以利于下一步的分析。
雙碼注音輸入法/我的彼得《節錄》 新(xv1)近(jv4)有(ir3)一(i1)天(tm1)晚(uk3)上(oj4),(,)我(uo3)在(zh4) 一(i1)個(ge5)地(di4)方(fj1)聽(tg)音(id1)樂(ye4),(,)一(i1)個(ge5) 不(bu4)相(xc1)識(o2)的(de5)小(xn3)孩(hh2),(,)約(ye1)莫(mo4)八(ba1) 九(jb3)歲(sv4)光(gc1)景(jg3),(,)過(go4)來(lh2)坐(zo4)在(zh4)我(uo3) 的(de5)身(od1)邊(bm1),(,)他(ta1)說(oo1)的(de5)話(hx4)我(uo3)不(bu4) 懂(dl3),(,)我(uo3)也(ie3)不(bu4)易(ei4)使(o3)他(ta1)懂(dl3)我(uo3) 的(de5)話(hx4),(,)那(na4)可(ke3)並(bg4)不(bu4)妨(fj2)事(o4),(,) 因(id1)為(uw4)在(zh4)幾(ji3)分(fd1)鐘(al1)內(nw4)我(uo3)們(md5)已(i3) 經(jg1)是(o4)很(hd3)好(hs3)的(de5)朋(pf2)友(ir3),(,)他(ta1)拉(la1) 著(ae5)我(uo3)的(de5)手(or3),(,)我(uo3)拉(la1)著(ae5)他(ta1)的(de5) 手(or3),(,)一(i1)同(tl2)聽(tg1)台(th2)上(oj4)的(de5)音(id1)樂(ye4)。(.)
MySQL/Event 事件(Event)也称调度事件(Scheduled Event)或临时触发器(Temporal Trigger)。是在特定时刻或者指定时间间隔被执行的事件。 同一事件可以有多个实例同时在执行。这就需要使用锁来保证数据一致性。 Event Scheduler负责启动事件。禁用Event Scheduler: mysqld --event-scheduler=DISABLED 或在配置文件my.cnf中: event_scheduler=DISABLED 可以使用全局系统变量控制Event Scheduler: SELECT event_scheduler -- values: ON / OFF / DISABLED SET GLOBAL event_scheduler = ON SET GLOBAL event_scheduler = OFF 如果Event Scheduler是ON,通过命令SHOW PROCESSLIST可检查Event Scheduler的状态。其`User`是'event_scheduler' 使用SQL命令CREATE EVENT,ALTER EVENT,DROP EVENT。 例如,让SQL命令24小时后执行: CREATE EVENT `newEventName` ON SCHEDULE AT CURRENT_TIMESTAMP + INTERVAL 1 DAY DO INSERT INTO `mydatabase`.`news` (`title`, `text`) VALUES ('Example!', 'This is not a reale news') AT子句指定运行时间。 如果要创建定期事件(在规定的周期间隔),需要使用EVERY子句: CREATE EVENT `newevent2` ON SCHEDULE EVERY 2 DAY DO OPTIMIZE TABLE `mydatabase`.`news` 还可以指定开始与结束的时间点: CREATE EVENT `newevent2` ON SCHEDULE EVERY INTERVAL 1 DAY DO OPTIMIZE TABLE `mydatabase`.`news` STARTS CURRENT_TIMESTAMP + 1 MONTH ENDS CURRENT_TIMESTAMP + 3 MONTH 可用的时间单位: YEAR, QUARTER, MONTH, WEEK, DAY, HOUR, MINUTE, SECOND, YEAR_MONTH, DAY_HOUR, DAY_MINUTE, DAY_SECOND, HOUR_MINUTE, HOUR_SECOND, MINUTE_SECOND DO子句指出要执行的语句。当包括的语句超过1条,需要使用BEGIN ... END语法: delimiter | CREATE EVENT `newevent` ON SCHEDULE EVERY 1 DAY DO BEGIN DELETE FROM `logs`.`user` WHERE `deletion_time` < CURRENT_TIMESTAMP - 1 YEAR; DELETE FROM `logs`.`messages` WHERE `deletion_time` < CURRENT_TIMESTAMP - 1 YEAR; UPDATE `logs`.`activity` SET `last_cleanup` = CURRENT_TIMESTAMP; END | delimiter ; 禁止同名,可以使用IF NOT EXISTS子句: CREATE EVENT `newevent2` IF NOT EXISTS ON SCHEDULE EVERY 2 DAY DO OPTIMIZE TABLE `mydatabase`.`news` EVENT过期后会被MySQL默认删除。使用ON COMPLETION子句来指明过期后保留: CREATE EVENT `newevent2` ON SCHEDULE EVERY 2 DAY ON COMPLETION PRESERVE DO OPTIMIZE TABLE `mydatabase`.`news` 或者过期后不再保留: CREATE EVENT `newevent2` ON SCHEDULE EVERY 2 DAY ON COMPLETION NOT PRESERVE DO OPTIMIZE TABLE `mydatabase`.`news` If you don't tell MySQL to preserve the EVENT after it's expired, but it is already expired immediatly after creation (which happens if you specify a past TIMESTAMP in the AT / ENDS clause), the server creates and drop it as you requested. However, in this case it will inform you returning a 1588 warning. 可以指定 ENABLE, DISABLE,DISABLE ON SLAVES: CREATE EVENT `newevent2` ON SCHEDULE EVERY 2 DAY ON COMPLETION NOT PRESERVE DISABLE DO OPTIMIZE TABLE `mydatabase`.`news` Comment最多64个字符。 CREATE EVENT `newevent2` ON SCHEDULE EVERY 2 DAY ON COMPLETION NOT PRESERVE DISABLE COMMENT 'let\'s optimize some tables!' DO OPTIMIZE TABLE `mydatabase`.`news` 可以指定以哪名用户来检查权限。默认是CURRENT_USER: CREATE DEFINER = CURRENT_USER EVENT `newevent2` ON SCHEDULE EVERY 2 DAY DO OPTIMIZE TABLE `mydatabase`.`news` 特权用户可以指定使用不同的用户身份,并且必须指明host: CREATE DEFINER = 'allen@localhost' EVENT `newevent2` ON SCHEDULE EVERY 2 DAY DO OPTIMIZE TABLE `mydatabase`.`news` ALTER EVENT `newevent2` ON SCHEDULE EVERY 2 DAY ON COMPLETION NOT PRESERVE RENAME TO `example_event` DISABLE COMMENT 'let\'s optimize some tables!' DO OPTIMIZE TABLE `mydatabase`.`news` 可以只写必须的修改信息: ALTER EVENT `newevent2` ENABLE; DROP EVENT `event_name` 删除不存在的事件会导致1517错误,可用IF EXISTS子句: DROP EVENT IF EXISTS `event_name` 展示事件被创建的SQL语句: Syntax: SHOW CREATE EVENT newevent2; Event - Event name. sql_mode - SQL mode which was in effect when the CREATE EVENT statement was executed. time_zone - Time zone that was used when the statement was executed. Create Event - Statement used to create the event. character_set_client collation_connection Database Collation 显示指定数据库中的事件: SHOW EVENTS SHOW EVENTS FROM `my_nice_db` SHOW EVENTS IN `my_nice_db` -- synonym SHOW EVENTS LIKE 'my_%' -- name starts with 'my_' SHOW EVENTS WHERE definer LIKE 'admin@%' -- filters on any field Db Database name. Name Event name. Definer User which created the EVENT and the host he used, in the form user@host. Time zone Timezone in use for the EVENT. If it never changed, it should be 'SYSTEM', which means: server's timezone. Type 'ONE TIME' for EVENTs which are executed only once, 'RECURRING' for EVENTs which are executed regularly. Executed At The TIMESTAMP of the moment the EVENT will be executed. NULL for recursive EVENTs. Interval Value Number of intervals between EVENT's executions. See next field. NULL for EVENTs which are executed only once. Interval Field Interval type to wait between EVENTs executions. For example, if `Interval Field` is 'SECOND' and `Interval Value` is 30, the EVENT will be executed every 30 seconds. NULL for EVENTs which are executed only once. Starts First execution DATETIME for recurring EVENTs. NULL for events which are executed only once. Ends Last execution DATETIME for recurring EVENTs. NULL for events which are executed only once. Status ENABLED, DISABLED, or SLAVESIDE_DISABLED. For ENABLED and DISABLED, see above. SLAVESIDE_DISABLED was added in 5.1 and means that the EVENT is enabled on the master but disabled on the slaves. Originator Id of the server where the EVENT was created. If it has been created on the current server this value is 0. Added in 5.1. character_set_client collation_connection Database Collation 显示服务器上所有的事件 EVENT_CATALOG Always NULL (CATALOGs are not implemented in MySQL). EVENT_SCHEMA Database name. EVENT_NAME Event name. DEFINER User which created the EVENT and the host he used, in the form user@host. TIME_ZONE Timezone in use for the EVENT. If it never changed, it should be 'SYSTEM', which means: server's timezone. EVENT_BODY Language used to write the routine that will be executed. EVENT_DEFINITION Routine that will be executed. EVENT_TYPE 'ONE TIME' for EVENTs which are executed only once, 'RECURRING' for EVENTs which are executed regularly. EXECUTE_AT The TIMESTAMP of the moment the EVENT will be executed. NULL for recursive EVENTs. INTERVAL_VALUE Number of intervals between EVENT's executions. See next field. NULL for EVENTs which are executed only once. INTERVAL_FIELD Interval type to wait between EVENTs executions. For example, if `Interval Field` is 'SECOND' and `Interval Value` is 30, the EVENT will be executed every 30 seconds. NULL for EVENTs which are executed only once. SQL_MODE SQL mode which was in effect when the EVENT has been created. STARTS First execution DATETIME for recurring EVENTs. NULL for events which are executed only once. ENDS Last execution DATETIME for recurring EVENTs. NULL for events which are executed only once. STATUS ENABLED, DISABLED, or SLAVESIDE_DISABLED. For ENABLED and DISABLED, see above. SLAVESIDE_DISABLED was added in 5.1 and means that the EVENT is enabled on the master but disabled on the slaves. ON_COMPLETION 'NOT PRESERVE' (the EVENT will be deleted) or 'PRESERVE' (the EVENT won't be deleted'. CREATED Creation DATETIME. LAST_ALTERED Last edit's DATETIME. If the EVENT has never been altered, `LAST_ALTERED` has the same value as `CREATED`. LAST_EXECUTED Last execution TIMESTAMP. If the EVENT has never been executed yet, this value is NULL. EVENT_COMMENT Comment associated to the EVENT. Is there is no comment, this value is an empty string. ORIGINATOR Id of the server where the EVENT was created. If it has been created on the current server this value is 0. Added in 5.1. character_set_client collation_connection Database Collation
免疫学/补体受体与补体生物学活性 补体系统 - 补体的激活途径 - 补体激活的调节 - 补体系统的异常与疾病 补体在活化过程中产生多种蛋白水解片段,这些片段通过与补体受体结合,介导炎症及多种免疫功能。 机体抵抗病原微生物、寄生虫感染的重要防御。补体激活后形成MAC,最终导致靶细胞的裂解和破环,以清除病原体。在自身抗体存在条件下也会因补体激活,发生Ⅱ型超敏反应,导致自身细胞的裂解。 抗原抗体复合物激活补体后可通过C3b等片段黏附到具有相应受体的红细胞、血小板上,形成较大的复合物,便于吞噬细胞吞噬。 补体/抗体覆盖与颗粒性抗原表面,可通过与中性粒细胞或巨噬细胞表面的相应补体受体或Fc受体的结合,促进微生物与吞噬细胞黏附,并被吞噬和杀伤。 正常机体血液循环中可持续形成少量免疫复合物(IC)。 当人体对抗原发生免疫反应产生足量抗体时,循环中可出现大量IC,一定大小的IC能沉积于血管壁,激活补体,引起炎症反应而造成组织损伤,因而必须及时清除这种IC以避免其有害作用。补体可以通过免疫黏附和调理作用促进IC清除。 C2a:激肽样作用。增加血管通透性,引起炎症性充血。 C3a、C5a:过敏毒素。使嗜碱性细胞、肥大细胞及中性粒细胞脱颗粒,释放组胺、白三烯、前列腺素等介质,引起血管扩张、毛细血管通透性增加,平滑肌收缩,导致局部水肿等炎症反应及支气管痉挛,产生过敏反应。 C5a:趋化因子。吸引具有C5a受体吞噬细胞(中性粒细胞、巨噬细胞)按浓度梯度移动,使其向组织损伤/炎症部位集中,对抗原进行清除,同时亦参与炎症反应。 参与捕捉、固定抗原。                                                                                                         调节免疫细胞增殖和分化。 调节免疫细胞的效应功能。 C3和C3b片段会附着在病原微生物颗粒的表面增强抗原的加工和提呈。 参与了记忆性B细胞的形成、活化以及耐受。
工程材料/铝合金 纯铝因其强度很低,不宜用来制造承受载荷的产品部件。如在铝中加入适量的Si 、Cu、Mg、Mn等元素,则可以得到较高强度的铝合金。 根据成分及工艺特点,铝合金分为两类: 变形铝合金和铸造铝合金。 铝合金与纯铝一样,熔点低、密度小,热和电的良导体,抗氧化,并且具有比钢铁材料更高的比强度。 铝合金具有优异的加工性能,铸造铝合金的铸造性能极好。 铝合金可用于制造承受较大载荷的机器零件和构件。
生物信息学/高通量测序数据比对 对高通量测序数据进行比对,就是将测序得到的reads定位到基因组序列上。由于测序 的数据量比较大,因此比对软件需要能快速将reads比对到参考序列上,并且能并行化运 行。对lllumina测序或454测序得到的short reads进行比对的常用软件有Bowtie、BWA、(基因组、原核转录组) HISAT和Tophat(真核转录组)。 illumina测序数据特点: 测序覆盖全基因组 测序数据读长短 测序数据具有一定的错误率 测序数据深度高 测序数据具有pair-end关系 短序列比对情况: 第一种:一对一无错配比对 第二种:一对一有错配比对 第三种:一对多无错配比对 第四种:一对多错配比对 第五种:无法匹配 短序列比对统计: 计算reads利用率 计算覆盖度:测序和物理 计算覆盖比率 短序列比对的应用: 序列拼接评估 变异检测 RNASeq 宏基因组16s测序 NIPT检测
雙碼注音輸入法/孔乙己《節錄》 魯(lu3)鎭(ad4)的(de5)酒(jb3)店(dm4)的(de5)格(ge2)局(jy2),(,)是(o4) 和(hk4)別(bp2)處(vu4)不(bu4)同(tl2)的(de5):(:)都(dr1)是(o4)當(dj1) 街(jp1)一(i1)個(ge5)曲(qy1)尺(v3)形(xg2)的(de5)大(da4)櫃(gv4)臺(th2) ,(,)櫃(gv4)裡(li3)面(mm4)預(y4)備(bw4)著(ae5)熱(re4)水(ov3),(,) 可(ke3)以(i3)隨(sv2)時(o2)溫(ud1)酒(jb3)。(.)做(zo4)工(gl1)的(de5) 人(rd2),(,)傍(bj4)午(u3)傍(bj4)晚(uk3)散(sk4)了(le5)工(gl1),(,) 每(mw3)每(mw3)花(hx1)四(s4)文(ud)銅(tl2)錢(qm2),(,)買(mh3)一(i1) 碗(uk3)酒(jb3),(,)——(_)這(ae4)是(o4)二(el4)十(o2)多(do1)年(nm2) 前(qm2)的(de5)事(o4),(,)現(xm4)在(zh4)每(mw3)碗(uk3)要(us4)漲(aj3) 到(ds4)十(o2)文(ud2),(,)——(_)靠(ks4)櫃(gv4)外(uh4)站(ak4)著(ae5) ,(,)熱(re4)熱(re4)的(de5)喝(he1)了(le5)休(xb1)息(xi2);(;) 倘(tj3)肯(kd3)多(do1)花(hx1)一(i1)文(id2),(,)便(bm4)可(ke3)以(i3) 買(mh3)一(i1)碟(dp2)鹽(ik2)煮(au3)筍(sz3),(,)或(ho4)者(ae3)茴(hv2) 香(xc1)豆(dr4),(,)做(zo4)下(xx4)酒(jb3)物(u4)了(le5),(,)如(ru2) 果(go3)出(vu1)到(ds4)十(o2)幾(ji3)文(ud2),(,)那(na4)就(jb4)能(nf2) 買(mh2)一(i1)樣(ij4)葷(hz1)菜(ch4),(,)但(dk4)這(ae4)些(xp1)顧(gu4) 客(ke4),(,)多(do1)是(o4)短(dt3)衣(i1)幫(bj1),(,)大(da4)抵(di3) 沒(mw2)有(ir3)這(ae4)樣(ij4)闊(ko4)綽(vo4)。(.)只(a3)有(ir3)穿(vt1) 長(vj2)衫(ok1)的(de5),(,)才(ch2)踱(do4)進(jv4)店(dm4)面(mm4)隔(ge2) 壁(bi4)的(de5)房(fj2)子(z5)裡(li3),(,)要(is4)酒(jb3)要(is4)菜(ch4) ,(,)慢(mk4)慢(mk4)地(de5)坐(zo4)喝(he1)。(.)
免疫学/补体激活的调节 补体系统 - 补体的激活途径 - 补体受体与补体生物学活性 - 补体系统的异常与疾病 补体激活过程中生产的某些中间产物极不稳定,成为级联反应的重要自限因素。 触发补体活化的表面也有一定的要求。 C1抑制分子(C1 inhibitor, C1INH)可与活化的C1r和C1s以共价键结合成稳定的复合物,使C1r和C1s失去酶解正常底物的能力。其次,C1INH还可有效的将与IC结合的C1大分子解聚,并可明显缩短C1的半寿期。 C4结合蛋白(C4 binding protein, C4bp)与补体受体1(complement receptor 1,CR1):均可与C4b结合并完全抑制C4b与C2结合,防止经典途C3转化酶的组装,并加速其分解。 I因子:可裂解C4b为C4c与C4d;也可降解C3b。 膜辅助蛋白(MCP):可作为辅助因子促进I因子介导的C4b裂解。 衰变加速因子(DAF):可同C2竞争与C4b的结合,从而抑制C3转化酶的形成并促进其分解。
工程材料/铝合金的时效 铝合金的热处理是通过固溶强化和时效强化来达到的,尤其是时效强化的效果更为显著。 铝合金的时效一般经过两个过程,即固溶处理和时效硬化,固溶处理是为时效硬化做准备的。 固溶处理 将成分位于相图中D~F之间的合金加热到a相区, 经保温获得单相a 固溶体后迅速水冷,可在室温得到过饱和的a固溶体 , 这种处理方式称为固溶处理。 时效 固溶处理后得到的组织是不稳定的,有分解出强化相过渡到稳定状态的倾向。在室温下放置或低温加热时,强度和硬度会明显升高。这种现象称为时效或时效硬化。 在室温下进行的称为自然时效;在加热条件下进行的称人工时效。 合金发生时效的条件 合金能在高温形成均匀的固溶体,并且固溶体中溶质的溶解度必须随温度的降低而显著降低 时效温度和时间对时效的影响 时效温度越高, 强度峰值越低, 强化效果越小。 时效温度越高, 时效速度越快, 强度峰值出现所需时间越短。 低温使固溶处理获得的过饱和固溶体保持相对的稳定性, 抑制时效的进行。
生物信息学/STAR STAR: ultrafast universal RNA-seq aligner Bioinformatics, Volume 29, Issue 1, 1 January 2013, Pages 15–21, https://doi.org/10.1093/bioinformatics/bts635 参考文献:https://academic.oup.com/bioinformatics/article/29/1/15/272537 STAR软件官网:https://github.com/alexdobin/STAR STAR参考文档:https://github.com/alexdobin/STAR/blob/master/doc/STARmanual.pdf # Ubuntu. sudo apt-get update sudo apt-get install g++ sudo apt-get install make # Red Hat, CentOS, Fedora. sudo yum update sudo yum install make sudo yum install gcc-c++ sudo yum install glibc-static # SUSE. sudo zypper update sudo zypper in gcc gcc-c++ 从https://github.com/alexdobin/STAR/releases下载最新版本的STAR源代码: wget https://github.com/alexdobin/STAR/archive/2.6.1d.tar.gz tar -xzf 2.6.1d.tar.gz cd STAR-2.6.1d # Alternatively, get STAR source using git git clone https://github.com/alexdobin/STAR.git # Compile cd STAR/source make STAR # Mac系统编译 make STARforMac 基本 STAR 工作流程包括 2 个步骤: 1. 生成基因组索引文件 在此步骤中,用户提供了参考基因组序列(FASTA 文件)和注释(GTF 文件),STAR 从中生成基因组索引,用于第二个(映射)步骤。 基因组索引保存到磁盘,并且只需为每个基因组/注释组合生成一次。 可从http://labshare.cshl.edu/shares/gingeraslab/www-data/dobin/STAR/STARgenomes/ 获得有限的 STAR 基因组集合,但是,强烈建议用户生成自己的基因组索引。 - 最新的程序集和注释。 2. 将read比对到基因组 在此步骤中,用户提供在第一步中生成的基因组文件,以及 FASTA 或 FASTQ 文件形式的 RNA-seq 读数(序列)。 STAR 将读取映射到基因组,并写入多个输出文件,例如比对 (SAM/BAM)、映射汇总统计、接合点、未映射的读取、信号(摆动)轨道等。比对由各种输入参数(选项)控制。 所有选项的说明。 STAR 命令行格式如下: STAR --option1-name option1-value(s)--option2-name option2-value(s) ... 如果一个选项可以接受多个值,它们之间用空格分隔,在少数情况下 - 用逗号分隔。 运行示例: # 对genome建索引,新建文件夹/path/to/GenomeDir # 2种方式,无注释的: /pathToStarDir/STAR --runMode genomeGenerate --genomeDir /path/to/GenomeDir --genomeFastaFiles /path/to/genome/fasta1 /path/to/genome/fasta2 --runThreadN <n> … #有注释引导的(gff3或gtf): /pathToStarDir/STAR --runMode genomeGenerate --genomeDir /path/to/GenomeDir --genomeFastaFiles /path/to/genome/fasta1 /path/to/genome/fasta2 --runThreadN <n> --sjdbGTFfile <FileName> --sjdbOverhang <N>… # gff3的话,再加 --sjdbGTFtagExonParentTranscript Parent --sjdbOverhang <N> 是剪切点左边或右边"overhang"的长度,最好设置为RNASEQ时的MateLength - 1。 基因组文件包括二进制基因组序列、后缀数组、文本染色体名称/长度、剪接点坐标和转录本/基因信息。 大多数这些文件使用内部 STAR 格式,不打算由最终用户使用。 强烈建议不要更改这些文件中的任何一个,但有一个例外:您可以重命名 chrName.txt 中的染色体名称,同时保持该文件中染色体的顺序:该文件中的染色体名称将用于所有输出文件 (例如 SAM/BAM)。 强烈建议包括主要染色体(例如,对于人类 chr1-22、chrX、chrY、chrM)以及未放置和未定位的支架。 通常,未放置/未定位的支架仅在基因组长度上增加了几个 MegaBase,但是,大量读数可能会映射到这些支架上的核糖体 RNA (rRNA) 重复序列。 如果支架不包含在基因组中,或者更糟糕的是,可能与染色体上的错误位点对齐,则这些读数将被报告为未映射。 通常,基因组中不应包含补丁和替代单倍型。 可接受的基因组序列文件示例: ENSEMBL:后缀名.dna.primary.assembly,例如ftp://ftp.ensembl.org/pub/release-77/fasta/homo_sapiens/dna/Homo_sapiens.GRCh38.dna.primary_assembly.fa.gz GENCODE:标有PRI(primary)的文件。 强烈推荐小鼠和人类。 强烈建议对物种使用最全面的注释。 非常重要的是,注释 GTF 文件中的染色体名称必须与 FASTA 基因组序列文件中的染色体名称相匹配。 例如,可以将 ENSEMBL FASTA 文件与 ENSEMBL GTF 文件一起使用,将 UCSC FASTA 文件与 UCSC FASTA 文件一起使用。 但是,由于 UCSC 使用 chr1, chr2, ... 命名约定,而 ENSEMBL 使用 1, 2, ... 命名,所以 ENSEMBL 和 UCSC FASTA 和 GTF 文件不能混合在一起,除非染色体被重命名以匹配FASTA 和 GTF 文件。 除了上述选项之外,对于 GFF3 格式的注释,您需要使用 --sjdbGTFtagExonParentTranscript Parent。 通常,对于 --sjdbGTFfile 文件,STAR 仅处理在第三个字段(列)中具有 --sjdbGTFfeatureExon(默认情况下=exon)的行。 外显子使用由 --sjdbGTFtagExonParentTranscript(默认情况下 = transcript_id)GTF/GFF 属性定义的父子关系分配给转录本。 STAR 还可以在文本文件中使用格式化为拼接junction坐标列表的注释: --sjdbFileChrStartEnd /path/to/sjdbFile.txt。 此文件应包含由制表符分隔的 4 列: Chr \tab Start \tab End \tab Strand=+/-/。 这里 Start 和 End 是内含子的第一个和最后一个碱基(基于 1 的染色体坐标)。 除了 --sjdbGTF 文件之外,还可以使用此文件,在这种情况下,STAR 将从两个文件中提取连接。 请注意,--sjdbFileChrStartEnd 文件可以包含重复(相同)的连接点,STAR 将折叠(删除)重复的连接点。 对于小基因组,参数 --genomeSAindexNbases 必须按比例缩小,典型值为 min(14, log2(GenomeLength)/2 - 1)。 例如,对于 1 megaBase 基因组,这等于 9,对于 100 kiloBase 基因组,这等于 7。 如果您使用的基因组具有大量 (>5,000) 参考(染色体/支架),您可能需要减少 --genomeChrBinNbits 以减少 RAM 消耗。 建议使用以下缩放比例:--genomeChrBinNbits = min(18,log2[max(GenomeLength/NumberOfReferences,ReadLength)])。 例如,对于具有 100,000 条染色体/支架的 3 gigaBase 基因组,这等于 15。 /pathToStarDir/STAR --genomeDir /path/to/GenomeDir --readFilesIn /path/to/read1.gz [/path/to/read2.gz] --readFilesCommand zcat --runThreadN <n> --<inputParameterName> <inputparameter value(s)> … # 共享内存: --genomeLoad <value> # map的时候,这个参数控制基因组读到ram里面是否作为共享的,如果共享,其它在同节点运行的同样以此genome作为ref的star任务,可以共享它,节省计算资源。若要使用,请读manual。 --genomeDir 指定生成基因组索引的基因组目录的路径。 --readFilesIn 包含要映射的序列的文件的名称(带路径)(例如 RNA-seq FASTQ 文件)。 如果使用 Illumina 双端读取,则必须提供 read1 和 read2 文件。 STAR 可以处理 FASTA 和 FASTQ 文件。 支持多行(即序列拆分为多行)FASTA(但不支持 FASTQ)文件。 如果读取的文件被压缩,请使用 --readFilesCommand UncompressionCommand 选项,其中 UncompressionCommand 是解压缩命令,它将文件名作为输入参数,并将未压缩的输出发送到 stdout。 例如,对于 gzipped 文件 (*.gz),请使用 --readFilesCommand zcat 或 --readFilesCommand gunzip -c。 对于 bzip2- 压缩文件,使用--readFilesCommand bunzip2 -c。 可以在一次运行中使用单个输出映射多个样本。这等效于在映射之前连接读取文件,不同之处在于可以在 --outSAMattrRGline 命令中使用不同的读取组来跟踪来自不同文件的读取。对于单端读取使用逗号分隔列表(逗号周围没有空格),例如: --readFilesIn sample1.fq,sample2.fq,sample3.fq 对于双端读取,read1 使用逗号分隔列表,后跟空格,read2 后跟逗号分隔列表,例如:--readFilesIn s1read1.fq,s2read1.fq,s3read1.fq s1read2.fq,s2read2.fq,s3read2 .fq 对于多个读取文件,可以在 --outSAMattrRGline 中为相应的读取组提供空格/逗号/空格分隔列表,例如--outSAMattrRGline ID:sample1, ID:sample2, ID:sample3 请注意,此列表由空格包围的逗号分隔(与 --readFilesIn 列表不同)。 映射多个读取文件的另一个选项,对于非常多的文件特别方便,是创建文件清单并在 --readFilesManifest /path/to/manifest.tsv 中提供它。 清单文件应包含 3 个制表符分隔的列。对于双端读取: read1-file-name tab read2-file-name tab read-group-line 对于单端读取,第二列应包含破折号 -: read1-file-name tab - tab read-group-line 文件名中允许有空格,但不允许有制表符。如果 read-group-line 不以 ID: 开头, 它只能包含一个 ID 字段,ID: 将添加到其中。如果 read-group-line 以 ID: 开头,它可以包含多个由制表符分隔的字段,并且所有字段将被逐字复制到 SAM @RG 标题行中。 从 2.4.1a 开始,可以在比对步骤中即时包含注释,而无需在基因组生成步骤中包含它们。 您可以指定 --sjdbGTFfile /path/to/ann.gtf 和/或 --sjdbFileChrStartEnd /path/to/sj.tab,以及 --sjdbOverhang 和任何其他 --sjdb* 选项。 可以使用或不使用另一组注释/连接来生成基因组索引。 在后一种情况下,新的连接点将添加到旧的连接点上。 STAR 将在映射之前将连接点动态插入到基因组索引中,这需要 1 2 分钟。 可以使用 --sjdbInsertSave All 将动态基因组索引保存(以供重用)到当前运行目录中的 STARgenome 目录中。 下面给出了长 RNA-seq 管道的 ENCODE 标准选项示例: --outFilterType BySJout 减少了“虚假”连接的数量 --outFilterMultimapNmax 20 读取允许的最大多重对齐数:如果超过,则读取被视为未比对 --alignSJoverhangMin 8 未注释连接的最小悬垂 --alignSJDBoverhangMin 1 带注释的连接点的最小悬垂 --outFilterMismatchNmax 999 每对最大不匹配数,大量关闭此过滤器 --outFilterMismatchNoverReadLmax 0.04 每对相对于读取长度的最大错配数:对于 2x100b,配对读取的最大错配数为 0.04*200=8 --alignIntronMin 20 最小内含子长度 --alignIntronMax 1000000 最大内含子长度 --alignMatesGapMax 1000000 mate之间的最大基因组距离 --genomeLoad 选项控制基因组如何加载到内存中。默认情况下,--genomeLoad NoSharedMemory,不使用共享内存。 使用 --genomeLoad LoadAndKeep,STAR 将基因组作为标准 Linux 共享内存块加载。基因组由其唯一的目录路径标识。在加载基因组之前,STAR 检查基因组是否已加载到共享内存中。如果基因组尚未加载,STAR 将加载它并在 STAR 作业完成后将其保存在内存中。基因组 将与所有其他 STAR 工作共享。您可以使用 --genomeLoad Remove 从运行 STAR 的共享内存中删除基因组。只有在附加到它的所有 STAR 作业完成后,共享内存块才会被物理删除。使用 --genomeLoad LoadAndRemove,STAR 将 将基因组加载到共享内存中,并将其标记为删除,这样一旦所有使用它的 STAR 作业退出,基因组就会从共享内存中删除。 --genomeLoad LoadAndExit,STAR 将在共享内存中加载基因组,并立即退出,将基因组加载到共享内存中以备将来运行。 如果您需要手动检查或删除共享内存片段,请使用标准 Linux 命令 ipcs 和 ipcrm。如果驻留在共享内存中的基因组长时间不使用,它可能会从 RAM 中分页,这将大大减慢 STAR 的运行速度。强烈建议定期重新加载(即删除并再次加载)共享内存基因组。 许多标准 Linux 发行版不允许足够大的共享内存块。如果您有 root 权限,您可以解决这个问题,或者请您的系统管理员来解决这个问题。要启用共享内存,请修改或将以下行添加到 /etc/sysctl.conf: kernel.shmmax = Nmax kernel.shmall = Nall Nmax, N 所有数字应选择如下: Nmax > GenomeIndexSize = Genome + SA + SAindex(人类基因组为 31000000000) N all > GenomeIndexSize/PageSize 其中 PageSize 通常为 4096(可以使用 getconf PAGE SIZE 检查)。然后运行: /sbin/sysctl -p 这会将允许的共享内存块增加到 31GB,足以容纳人类或小鼠基因组。 按功能分组: 必须特别注意以 --out* 开头的参数,因为它们控制 STAR 输出。 特别是,--outFilter* 参数控制输出对齐的过滤,您可能希望对其进行调整以满足您的需要。 “嵌合”比对的输出由 --chim* 参数控制。 基因组生成由 --genome* 参数控制。 注释(剪接点数据库)由基因组生成步骤中的 --sjdb* 选项控制。 调整 --score*、--align*、--seed*、--win* 参数,需要了解 STAR 对齐算法,仅建议高级用户使用。 --parametersFiles default: - string: name of a user-defined parameters file, ”-”: none. Can only be defined on the command line. --sysShell default: - string: path to the shell binary, preferably bash, e.g. /bin/bash. - the default shell is executed, typically /bin/sh. This was reported to fail on some Ubuntu systems - then you need to specify path to bash. --runMode default: alignReads string: type of the run. --runThreadN default: 1 int: number of threads to run STAR --runDirPerm default: User RWX string: permissions for the directories created at the run-time. User RWX user-read/write/execute All RWX all-read/write/execute (same as chmod 777) --runRNGseed default: 777 int: random number generator seed. --genomeDir default: ./GenomeDir/ string: path to the directory where genome files are stored (for –runMode alignReads) or will be generated (for –runMode generateGenome) --genomeLoad default: NoSharedMemory string: mode of shared memory usage for the genome files. Only used with –runMode alignReads. LoadAndKeep load genome into shared and keep it in memory after run LoadAndRemove load genome into shared but remove it after run LoadAndExit load genome into shared memory and exit, keeping the genome in memory for future runs Remove do not map anything, just remove loaded genome from memory NoSharedMemory do not use shared memory, each job will have its own private copy of the genome --genomeFastaFiles default: - string(s): path(s) to the fasta files with the genome sequences, separated by spaces. These files should be plain text FASTA files, they *cannot* be zipped. Required for the genome generation (–runMode genomeGenerate). Can also be used in the mapping (–runMode alignReads) to add extra (new) sequences to the genome (e.g. spike-ins). --genomeChainFiles default: - string: chain files for genomic liftover. Only used with –runMode liftOver . --genomeFileSizes default: 0 uint(s)>0: genome files exact sizes in bytes. Typically, this should not be defined by the user. --genomeTransformOutput default: None string(s) which output to transform back to original genome SAM SAM/BAM alignments SJ splice junctions (SJ.out.tab) None no transformation of the output --genomeChrBinNbits default: 18 int: =log2(chrBin), where chrBin is the size of the bins for genome storage: each chromosome will occupy an integer number of bins. For a genome with large number of contigs, it is recommended to scale this parameter as min(18, log2[max(GenomeLength/NumberOfReferences,ReadLength)]). --genomeSAindexNbases default: 14 int: length (bases) of the SA pre-indexing string. Typically between 10 and 15. Longer strings will use much more memory, but allow faster searches. For small genomes, the parameter –genomeSAindexNbases must be scaled down to min(14, log2(GenomeLength)/2 - 1). --genomeSAsparseD default: 1 int>0: suffux array sparsity, i.e. distance between indices: use bigger numbers to decrease needed RAM at the cost of mapping speed reduction --genomeSuffixLengthMax default: -1 int: maximum length of the suffixes, has to be longer than read length. -1 = infinite. --genomeTransformType default: None string: type of genome transformation None no transformation Haploid replace reference alleles with alternative alleles from VCF file (e.g. consensus allele) Diploid create two haplotypes for each chromosome listed in VCF file, for genotypes 1—2, assumes perfect phasing (e.g. personal genome) --genomeTransformVCF default: - string: path to VCF file for genome transformation --sjdbFileChrStartEnd default: - string(s): path to the files with genomic coordinates (chr start end strand) for the splice junction introns. Multiple files can be supplied wand will be concatenated. --sjdbGTFfile default: - string: path to the GTF file with annotations --sjdbGTFchrPrefix default: - string: prefix for chromosome names in a GTF file (e.g. ’chr’ for using ENSMEBL annotations with UCSC genomes) --sjdbGTFfeatureExon default: exon string: feature type in GTF file to be used as exons for building transcripts --sjdbGTFtagExonParentTranscript default: transcript id string: GTF attribute name for parent transcript ID (default ”transcript id” works for GTF files) --sjdbGTFtagExonParentGene default: gene id string: GTF attribute name for parent gene ID (default ”gene id” works for GTF files) --sjdbGTFtagExonParentGeneName default: gene name string(s): GTF attrbute name for parent gene name --sjdbGTFtagExonParentGeneType default: gene type gene biotype 27 string(s): GTF attrbute name for parent gene type --sjdbOverhang default: 100 int>0: length of the donor/acceptor sequence on each side of the junctions, ideally = (mate length - 1) --sjdbScore default: 2 int: extra alignment score for alignments that cross database junctions --sjdbInsertSave default: Basic string: which files to save when sjdb junctions are inserted on the fly at the mapping step Basic only small junction / transcript files All all files including big Genome, SA and SAindex - this will create a complete genome directory --varVCFfile default: - string: path to the VCF file that contains variation data. The 10th column should contain the genotype information, e.g. 0/1 --inputBAMfile default: - string: path to BAM input file, to be used with –runMode inputAlignmentsFromBAM --readFilesType default: Fastx string: format of input read files Fastx FASTA or FASTQ SAM SE SAM or BAM single-end reads; for BAM use –readFilesCommand samtools view SAM PE SAM or BAM paired-end reads; for BAM use –readFilesCommand samtools view --readFilesSAMattrKeep default: All string(s): for –readFilesType SAM SE/PE, which SAM tags to keep in the output BAM, e.g.: –readFilesSAMtagsKeep RG PL All keep all tags None do not keep any tags --readFilesIn default: Read1 Read2 string(s): paths to files that contain input read1 (and, if needed, read2) --readFilesManifest default: - string: path to the ”manifest” file with the names of read files. The manifest file should contain 3 tab-separated columns: paired-end reads: read1 file name tab read2 file name tab read group line. single-end reads: read1 file name tab - tab read group line. Spaces, but not tabs are allowed in file names. If read group line does not start with ID:, it can only contain one ID field, and ID: will be added to it. If read group line starts with ID:, it can contain several fields separated by tab, and all fields will be be copied verbatim into SAM @RG header line. --readFilesPrefix default: - string: prefix for the read files names, i.e. it will be added in front of the strings in –readFilesIn --readFilesCommand default: - string(s): command line to execute for each of the input file. This command should generate FASTA or FASTQ text and send it to stdout For example: zcat - to uncompress .gz files, bzcat - to uncompress .bz2 files, etc. --readMapNumber default: -1 int: number of reads to map from the beginning of the file -1: map all reads --readMatesLengthsIn default: NotEqual string: Equal/NotEqual - lengths of names,sequences,qualities for both mates are the same / not the same. NotEqual is safe in all situations. --readNameSeparator default: / string(s): character(s) separating the part of the read names that will be trimmed in output (read name after space is always trimmed) --readQualityScoreBase default: 33 int>=0: number to be subtracted from the ASCII code to get Phred quality score --clipAdapterType default: Hamming string: adapter clipping type Hamming adapter clipping based on Hamming distance, with the number of mismatches controlled by –clip5pAdapterMMp CellRanger4 5p and 3p adapter clipping similar to CellRanger4. Utilizes Opal package by Martin Soˇsi´c: https://github.com/Martinsos/opal ˇ None no adapter clipping, all other clip* parameters are disregarded --clip3pNbases default: 0 int(s): number(s) of bases to clip from 3p of each mate. If one value is given, it will be assumed the same for both mates. --clip3pAdapterSeq default: - string(s): adapter sequences to clip from 3p of each mate. If one value is given, it will be assumed the same for both mates. polyA polyA sequence with the length equal to read length --clip3pAdapterMMp default: 0.1 double(s): max proportion of mismatches for 3p adapter clipping for each mate. If one value is given, it will be assumed the same for both mates. --clip3pAfterAdapterNbases default: 0 int(s): number of bases to clip from 3p of each mate after the adapter clipping. If one value is given, it will be assumed the same for both mates. --clip5pNbases default: 0 int(s): number(s) of bases to clip from 5p of each mate. If one value is given, it will be assumed the same for both mates. --limitGenomeGenerateRAM default: 31000000000 int>0: maximum available RAM (bytes) for genome generation --limitIObufferSize default: 30000000 50000000 int>0: max available buffers size (bytes) for input/output, per thread --limitOutSAMoneReadBytes default: 100000 int>0: max size of the SAM record (bytes) for one read. Recommended value: >(2*(LengthMate1+LengthMate2+100)*outFilterMultimapNmax --limitOutSJoneRead default: 1000 int>0: max number of junctions for one read (including all multi-mappers) --limitOutSJcollapsed default: 1000000 int>0: max number of collapsed junctions --limitBAMsortRAM default: 0 int>=0: maximum available RAM (bytes) for sorting BAM. If =0, it will be set to the genome index size. 0 value can only be used with –genomeLoad NoSharedMemory option. --limitSjdbInsertNsj default: 1000000 int>=0: maximum number of junction to be inserted to the genome on the fly at the mapping stage, including those from annotations and those detected in the 1st step of the 2-pass run --limitNreadsSoft default: -1 int: soft limit on the number of reads --outFileNamePrefix default: ./ string: output files name prefix (including full or relative path). Can only be defined on the command line. --outTmpDir default: - string: path to a directory that will be used as temporary by STAR. All contents of this directory will be removed! - the temp directory will default to outFileNamePrefix STARtmp --outTmpKeep default: None string: whether to keep the tempporary files after STAR runs is finished None remove all temporary files All .. keep all files --outStd default: Log string: which output will be directed to stdout (standard out) Log log messages SAM alignments in SAM format (which normally are output to Aligned.out.sam file), normal standard output will go into Log.std.out BAM Unsorted alignments in BAM format, unsorted. Requires –outSAMtype BAM Unsorted BAM SortedByCoordinate alignments in BAM format, sorted by coordinate. Requires –outSAMtype BAM SortedByCoordinate BAM Quant alignments to transcriptome in BAM format, unsorted. Requires –quantMode TranscriptomeSAM --outReadsUnmapped default: None string: output of unmapped and partially mapped (i.e. mapped only one mate of a paired end read) reads in separate file(s). None no output Fastx output in separate fasta/fastq files, Unmapped.out.mate1/2 --outQSconversionAdd default: 0 int: add this number to the quality score (e.g. to convert from Illumina to Sanger, use -31) --outMultimapperOrder default: Old 2.4 string: order of multimapping alignments in the output files Old 2.4 quasi-random order used before 2.5.0 Random random order of alignments for each multi-mapper. Read mates (pairs) are always adjacent, all alignment for each read stay together. This option will become default in the future releases. --outSAMtype default: SAM strings: type of SAM/BAM output 1st word: BAM output BAM without sorting SAM output SAM without sorting None no SAM/BAM output 2nd, 3rd: Unsorted standard unsorted SortedByCoordinate sorted by coordinate. This option will allocate extra memory for sorting which can be specified by –limitBAMsortRAM --outSAMmode default: Full string: mode of SAM output None no SAM output Full full SAM output NoQS full SAM but without quality scores --outSAMstrandField default: None string: Cufflinks-like strand field flag None not used intronMotif strand derived from the intron motif. This option changes the output alignments: reads with inconsistent and/or non-canonical introns are filtered out. --outSAMattributes default: Standard string: a string of desired SAM attributes, in the order desired for the output SAM. Tags can be listed in any combination/order. ***Presets: None no attributes Standard NH HI AS nM All NH HI AS nM NM MD jM jI MC ch ***Alignment: NH number of loci the reads maps to: =1 for unique mappers, >1 for multimappers. Standard SAM tag. HI multiple alignment index, starts with –outSAMattrIHstart (=1 by default). Standard SAM tag. AS local alignment score, +1/-1 for matches/mismateches, score* penalties for indels and gaps. For PE reads, total score for two mates. Stadnard SAM tag. nM number of mismatches. For PE reads, sum over two mates. NM edit distance to the reference (number of mismatched + inserted + deleted bases) for each mate. Standard SAM tag. MD string encoding mismatched and deleted reference bases (see standard SAM specifications). Standard SAM tag. jM intron motifs for all junctions (i.e. N in CIGAR): 0: non-canonical; 1: GT/AG, 2: CT/AC, 3: GC/AG, 4: CT/GC, 5: AT/AC, 6: GT/AT. If splice junctions database is used, and a junction is annotated, 20 is added to its motif value. jI start and end of introns for all junctions (1-based). XS alignment strand according to –outSAMstrandField. MC mate’s CIGAR string. Standard SAM tag. ch marks all segment of all chimeric alingments for –chimOutType WithinBAM output. cN number of bases clipped from the read ends: 5’ and 3’ ***Variation: vA variant allele vG genomic coordinate of the variant overlapped by the read. vW 1 - alignment passes WASP filtering; 2,3,4,5,6,7 - alignment does not pass WASP filtering. Requires –waspOutputMode SAMtag. ***STARsolo: CR CY UR UY sequences and quality scores of cell barcodes and UMIs for the solo* demultiplexing. GX GN gene ID and gene name. CB UB error-corrected cell barcodes and UMIs for solo* demultiplexing. Requires –outSAMtype BAM SortedByCoordinate. sM assessment of CB and UMI. sS sequence of the entire barcode (CB,UMI,adapter). sQ quality of the entire barcode. ***Unsupported/undocumented: ha haplotype (1/2) when mapping to the diploid genome. Requires genome generated with –genomeTransformType Diploid . rB alignment block read/genomic coordinates. vR read coordinate of the variant. --outSAMattrIHstart default: 1 int>=0: start value for the IH attribute. 0 may be required by some downstream software, such as Cufflinks or StringTie. --outSAMunmapped default: None string(s): output of unmapped reads in the SAM format 1st word: None no output Within output unmapped reads within the main SAM file (i.e. Aligned.out.sam) 2nd word: KeepPairs record unmapped mate for each alignment, and, in case of unsorted output, keep it adjacent to its mapped mate. Only affects multi-mapping reads. --outSAMorder default: Paired string: type of sorting for the SAM output Paired: one mate after the other for all paired alignments PairedKeepInputOrder: one mate after the other for all paired alignments, the order is kept the same as in the input FASTQ files --outSAMprimaryFlag default: OneBestScore string: which alignments are considered primary - all others will be marked with 0x100 bit in the FLAG OneBestScore only one alignment with the best score is primary AllBestScore all alignments with the best score are primary --outSAMreadID default: Standard string: read ID record type Standard first word (until space) from the FASTx read ID line, removing /1,/2 from the end Number read number (index) in the FASTx file --outSAMmapqUnique default: 255 int: 0 to 255: the MAPQ value for unique mappers --outSAMflagOR default: 0 int: 0 to 65535: sam FLAG will be bitwise OR’d with this value, i.e. FLAG=FLAG — outSAMflagOR. This is applied after all flags have been set by STAR, and after outSAMflagAND. Can be used to set specific bits that are not set otherwise. --outSAMflagAND default: 65535 int: 0 to 65535: sam FLAG will be bitwise AND’d with this value, i.e. FLAG=FLAG & outSAMflagOR. This is applied after all flags have been set by STAR, but before outSAMflagOR. Can be used to unset specific bits that are not set otherwise. --outSAMattrRGline default: - string(s): SAM/BAM read group line. The first word contains the read group identifier and must start with ”ID:”, e.g. –outSAMattrRGline ID:xxx CN:yy ”DS:z z z”. xxx will be added as RG tag to each output alignment. Any spaces in the tag values have to be double quoted. Comma separated RG lines correspons to different (comma separated) input files in –readFilesIn. Commas have to be surrounded by spaces, e.g. –outSAMattrRGline ID:xxx , ID:zzz ”DS:z z” , ID:yyy DS:yyyy --outSAMheaderHD default: - strings: @HD (header) line of the SAM header --outSAMheaderPG default: - strings: extra @PG (software) line of the SAM header (in addition to STAR) --outSAMheaderCommentFile default: - string: path to the file with @CO (comment) lines of the SAM header --outSAMfilter default: None string(s): filter the output into main SAM/BAM files KeepOnlyAddedReferences only keep the reads for which all alignments are to the extra reference sequences added with –genomeFastaFiles at the mapping stage. KeepAllAddedReferences keep all alignments to the extra reference sequences added with –genomeFastaFiles at the mapping stage. --outSAMmultNmax default: -1 int: max number of multiple alignments for a read that will be output to the SAM/BAM files. Note that if this value is not equal to -1, the top scoring alignment will be output first -1 all alignments (up to –outFilterMultimapNmax) will be output --outSAMtlen default: 1 int: calculation method for the TLEN field in the SAM/BAM files 1 leftmost base of the (+)strand mate to rightmost base of the (-)mate. (+)sign for the (+)strand mate 2 leftmost base of any mate to rightmost base of any mate. (+)sign for the mate with the leftmost base. This is different from 1 for overlapping mates with protruding ends --outBAMcompression default: 1 int: -1 to 10 BAM compression level, -1=default compression (6?), 0=no compression, 10=maximum compression --outBAMsortingThreadN default: 0 int: >=0: number of threads for BAM sorting. 0 will default to min(6,–runThreadN). --outBAMsortingBinsN default: 50 int: >0: number of genome bins fo coordinate-sorting --bamRemoveDuplicatesType default: - string: mark duplicates in the BAM file, for now only works with (i) sorted BAM fed with inputBAMfile, and (ii) for paired-end alignments only - no duplicate removal/marking UniqueIdentical mark all multimappers, and duplicate unique mappers. The coordinates, FLAG, CIGAR must be identical UniqueIdenticalNotMulti mark duplicate unique mappers but not multimappers. --bamRemoveDuplicatesMate2basesN default: 0 int>0: number of bases from the 5’ of mate 2 to use in collapsing (e.g. for RAMPAGE) --outWigType default: None string(s): type of signal output, e.g. ”bedGraph” OR ”bedGraph read1 5p”. Requires sorted BAM: –outSAMtype BAM SortedByCoordinate . 1st word: None no signal output bedGraph bedGraph format wiggle wiggle format 2nd word: read1 5p signal from only 5’ of the 1st read, useful for CAGE/RAMPAGE etc read2 signal from only 2nd read --outWigStrand default: Stranded string: strandedness of wiggle/bedGraph output Stranded separate strands, str1 and str2 Unstranded collapsed strands --outWigReferencesPrefix default: - string: prefix matching reference names to include in the output wiggle file, e.g. ”chr”, default ”-” - include all references --outWigNorm default: RPM string: type of normalization for the signal RPM reads per million of mapped reads None no normalization, ”raw” counts --outFilterType default: Normal string: type of filtering Normal standard filtering using only current alignment BySJout keep only those reads that contain junctions that passed filtering into SJ.out.tab --outFilterMultimapScoreRange default: 1 int: the score range below the maximum score for multimapping alignments --outFilterMultimapNmax default: 10 int: maximum number of loci the read is allowed to map to. Alignments (all of them) will be output only if the read maps to no more loci than this value.Otherwise no alignments will be output, and the read will be counted as ”mapped to too many loci” in the Log.final.out . --outFilterMismatchNmax default: 10 int: alignment will be output only if it has no more mismatches than this value. --outFilterMismatchNoverLmax default: 0.3 real: alignment will be output only if its ratio of mismatches to *mapped* length is less than or equal to this value. --outFilterMismatchNoverReadLmax default: 1.0 real: alignment will be output only if its ratio of mismatches to *read* length is less than or equal to this value. - -outFilterScoreMin default: 0 int: alignment will be output only if its score is higher than or equal to this value. --outFilterScoreMinOverLread default: 0.66 real: same as outFilterScoreMin, but normalized to read length (sum of mates’ lengths for paired-end reads) --outFilterMatchNmin default: 0 int: alignment will be output only if the number of matched bases is higher than or equal to this value. --outFilterMatchNminOverLread default: 0.66 real: sam as outFilterMatchNmin, but normalized to the read length (sum of mates’ lengths for paired-end reads). --outFilterIntronMotifs default: None 43 string: filter alignment using their motifs None no filtering RemoveNoncanonical filter out alignments that contain non-canonical junctions RemoveNoncanonicalUnannotated filter out alignments that contain non-canonical unannotated junctions when using annotated splice junctions database. The annotated non-canonical junctions will be kept. --outFilterIntronStrands default: RemoveInconsistentStrands string: filter alignments RemoveInconsistentStrands remove alignments that have junctions with inconsistent strands None no filtering --outSJtype default: Standard string: type of splice junction output Standard standard SJ.out.tab output None no splice junction output --outSJfilterReads default: All string: which reads to consider for collapsed splice junctions output All all reads, unique- and multi-mappers Unique uniquely mapping reads only --outSJfilterOverhangMin default: 30 12 12 12 4 integers: minimum overhang length for splice junctions on both sides for: (1) non-canonical motifs, (2) GT/AG and CT/AC motif, (3) GC/AG and CT/GC motif, (4) AT/AC and GT/AT motif. -1 means no output for that motif does not apply to annotated junctions --outSJfilterCountUniqueMin default: 3 1 1 1 4 integers: minimum uniquely mapping read count per junction for: (1) non-canonical motifs, (2) GT/AG and CT/AC motif, (3) GC/AG and CT/GC motif, (4) AT/AC and GT/AT motif. -1 means no output for that motif Junctions are output if one of outSJfilterCountUniqueMin OR outSJfilterCountTotalMin conditions are satisfied does not apply to annotated junctions --outSJfilterCountTotalMin default: 3 1 1 1 4 integers: minimum total (multi-mapping+unique) read count per junction for: (1) non-canonical motifs, (2) GT/AG and CT/AC motif, (3) GC/AG and CT/GC motif, (4) AT/AC and GT/AT motif. -1 means no output for that motif Junctions are output if one of outSJfilterCountUniqueMin OR outSJfilterCountTotalMin conditions are satisfied does not apply to annotated junctions --outSJfilterDistToOtherSJmin default: 10 0 5 10 4 integers>=0: minimum allowed distance to other junctions’ donor/acceptor does not apply to annotated junctions --outSJfilterIntronMaxVsReadN default: 50000 100000 200000 N integers>=0: maximum gap allowed for junctions supported by 1,2,3,,,N reads i.e. by default junctions supported by 1 read can have gaps <=50000b, by 2 reads: <=100000b, by 3 reads: <=200000. by >=4 reads any gap <=alignIntronMax does not apply to annotated junctions --scoreGap default: 0 int: splice junction penalty (independent on intron motif) --scoreGapNoncan default: -8 int: non-canonical junction penalty (in addition to scoreGap) --scoreGapGCAG default: -4 GC/AG and CT/GC junction penalty (in addition to scoreGap) --scoreGapATAC default: -8 AT/AC and GT/AT junction penalty (in addition to scoreGap) --scoreGenomicLengthLog2scale default: -0.25 extra score logarithmically scaled with genomic length of the alignment: scoreGenomicLengthLog2scale*log2(genomicLength) --scoreDelOpen default: -2 deletion open penalty --scoreDelBase default: -2 deletion extension penalty per base (in addition to scoreDelOpen) --scoreInsOpen default: -2 insertion open penalty --scoreInsBase default: -2 insertion extension penalty per base (in addition to scoreInsOpen) --scoreStitchSJshift default: 1 maximum score reduction while searching for SJ boundaries in the stitching step --seedSearchStartLmax default: 50 int>0: defines the search start point through the read - the read is split into pieces no longer than this value --seedSearchStartLmaxOverLread default: 1.0 real: seedSearchStartLmax normalized to read length (sum of mates’ lengths for paired-end reads) --seedSearchLmax default: 0 int>=0: defines the maximum length of the seeds, if =0 seed length is not limited --seedMultimapNmax default: 10000 int>0: only pieces that map fewer than this value are utilized in the stitching procedure --seedPerReadNmax default: 1000 int>0: max number of seeds per read --seedPerWindowNmax default: 50 int>0: max number of seeds per window --seedNoneLociPerWindow default: 10 int>0: max number of one seed loci per window --seedSplitMin default: 12 int>0: min length of the seed sequences split by Ns or mate gap --seedMapMin default: 5 int>0: min length of seeds to be mapped --alignIntronMin default: 21 minimum intron size: genomic gap is considered intron if its length>=alignIntronMin, otherwise it is considered Deletion --alignIntronMax default: 0 maximum intron size, if 0, max intron size will be determined by (2ˆwinBinNbits)*winAnchorDistNbins --alignMatesGapMax default: 0 maximum gap between two mates, if 0, max intron gap will be determined by (2ˆwinBinNbits)*winAnchorDistNbins --alignSJoverhangMin default: 5 int>0: minimum overhang (i.e. block size) for spliced alignments --alignSJstitchMismatchNmax default: 0 -1 0 0 4*int>=0: maximum number of mismatches for stitching of the splice junctions (-1: no limit). (1) non-canonical motifs, (2) GT/AG and CT/AC motif, (3) GC/AG and CT/GC motif, (4) AT/AC and GT/AT motif. --alignSJDBoverhangMin default: 3 int>0: minimum overhang (i.e. block size) for annotated (sjdb) spliced alignments --alignSplicedMateMapLmin default: 0 48 int>0: minimum mapped length for a read mate that is spliced --alignSplicedMateMapLminOverLmate default: 0.66 real>0: alignSplicedMateMapLmin normalized to mate length --alignWindowsPerReadNmax default: 10000 int>0: max number of windows per read --alignTranscriptsPerWindowNmax default: 100 int>0: max number of transcripts per window --alignTranscriptsPerReadNmax default: 10000 int>0: max number of different alignments per read to consider --alignEndsType default: Local string: type of read ends alignment Local standard local alignment with soft-clipping allowed EndToEnd force end-to-end read alignment, do not soft-clip Extend5pOfRead1 fully extend only the 5p of the read1, all other ends: local alignment Extend5pOfReads12 fully extend only the 5p of the both read1 and read2, all other ends: local alignment --alignEndsProtrude default: 0 ConcordantPair int, string: allow protrusion of alignment ends, i.e. start (end) of the +strand mate downstream of the start (end) of the -strand mate 1st word: int: maximum number of protrusion bases allowed 2nd word: string: ConcordantPair report alignments with non-zero protrusion as concordant pairs DiscordantPair report alignments with non-zero protrusion as discordant pairs --alignSoftClipAtReferenceEnds default: Yes string: allow the soft-clipping of the alignments past the end of the chromosomes Yes allow No prohibit, useful for compatibility with Cufflinks --alignInsertionFlush default: None string: how to flush ambiguous insertion positions None insertions are not flushed Right insertions are flushed to the right --peOverlapNbasesMin default: 0 int>=0: minimum number of overlap bases to trigger mates merging and realignment --peOverlapMMp default: 0.01 real, >=0 & <1: maximum proportion of mismatched bases in the overlap area --winAnchorMultimapNmax default: 50 int>0: max number of loci anchors are allowed to map to --winBinNbits default: 16 int>0: =log2(winBin), where winBin is the size of the bin for the windows/clustering, each window will occupy an integer number of bins. --winAnchorDistNbins default: 9 int>0: max number of bins between two anchors that allows aggregation of anchors into one window --winFlankNbins default: 4 int>0: log2(winFlank), where win Flank is the size of the left and right flanking regions for each window --winReadCoverageRelativeMin default: 0.5 real>=0: minimum relative coverage of the read sequence by the seeds in a window, for STARlong algorithm only. --winReadCoverageBasesMin default: 0 int>0: minimum number of bases covered by the seeds in a window , for STARlong algorithm only. --chimOutType default: Junctions string(s): type of chimeric output Junctions Chimeric.out.junction SeparateSAMold output old SAM into separate Chimeric.out.sam file WithinBAM output into main aligned BAM files (Aligned.*.bam) WithinBAM HardClip (default) hard-clipping in the CIGAR for supplemental chimeric alignments (default if no 2nd word is present) WithinBAM SoftClip soft-clipping in the CIGAR for supplemental chimeric alignments --chimSegmentMin default: 0 int>=0: minimum length of chimeric segment length, if ==0, no chimeric output --chimScoreMin default: 0 int>=0: minimum total (summed) score of the chimeric segments --chimScoreDropMax default: 20 int>=0: max drop (difference) of chimeric score (the sum of scores of all chimeric segments) from the read length --chimScoreSeparation default: 10 int>=0: minimum difference (separation) between the best chimeric score and the next one --chimScoreJunctionNonGTAG default: -1 int: penalty for a non-GT/AG chimeric junction --chimJunctionOverhangMin default: 20 int>=0: minimum overhang for a chimeric junction --chimSegmentReadGapMax default: 0 int>=0: maximum gap in the read sequence between chimeric segments --chimFilter default: banGenomicN string(s): different filters for chimeric alignments None no filtering banGenomicN Ns are not allowed in the genome sequence around the chimeric junction --chimMainSegmentMultNmax default: 10 int>=1: maximum number of multi-alignments for the main chimeric segment. =1 will prohibit multimapping main segments. --chimMultimapNmax default: 0 int>=0: maximum number of chimeric multi-alignments 0 use the old scheme for chimeric detection which only considered unique alignments --chimMultimapScoreRange default: 1 int>=0: the score range for multi-mapping chimeras below the best chimeric score. Only works with –chimMultimapNmax > 1 --chimNonchimScoreDropMin default: 20 int>=0: to trigger chimeric detection, the drop in the best non-chimeric alignment score with respect to the read length has to be greater than this value --chimOutJunctionFormat default: 0 int: formatting type for the Chimeric.out.junction file 0 no comment lines/headers 1 comment lines at the end of the file: command line and Nreads: total, unique/multi-mapping --quantMode default: - string(s): types of quantification requested - none TranscriptomeSAM output SAM/BAM alignments to transcriptome into a separate file GeneCounts count reads per gene --quantTranscriptomeBAMcompression default: 1 1 int: -2 to 10 transcriptome BAM compression level -2 no BAM output -1 default compression (6?) 0 no compression 10 maximum compression --quantTranscriptomeBan default: IndelSoftclipSingleend string: prohibit various alignment type IndelSoftclipSingleend prohibit indels, soft clipping and single-end alignments - compatible with RSEM Singleend prohibit single-end alignments --twopassMode default: None string: 2-pass mapping mode. None 1-pass mapping Basic basic 2-pass mapping, with all 1st pass junctions inserted into the genome indices on the fly --twopass1readsN default: -1 int: number of reads to process for the 1st step. Use very large number (or default -1) to map all reads in the first step. --waspOutputMode default: None string: WASP allele-specific output type. This is re-implementation of the original WASP mappability filtering by Bryce van de Geijn, Graham McVicker, Yoav Gilad & Jonathan K Pritchard. Please cite the original WASP paper: Nature Methods 12, 1061–1063 (2015), https://www.nature.com/articles/nmeth.3582 . SAMtag add WASP tags to the alignments that pass WASP filtering --soloType default: None string(s): type of single-cell RNA-seq CB UMI Simple (a.k.a. Droplet) one UMI and one Cell Barcode of fixed length in read2, e.g. Drop-seq and 10X Chromium. CB UMI Complex one UMI of fixed length, but multiple Cell Barcodes of varying length, as well as adapters sequences are allowed in read2 only, e.g. inDrop. CB samTagOut output Cell Barcode as CR and/or CB SAm tag. No UMI counting. –readFilesIn cDNA read1 [cDNA read2 if paired-end] CellBarcode read . Requires –outSAMtype BAM Unsorted [and/or SortedByCoordinate] SmartSeq Smart-seq: each cell in a separate FASTQ (paired- or single-end), barcodes are corresponding read-groups, no UMI sequences, alignments deduplicated according to alignment start and end (after extending soft-clipped bases) --soloCBwhitelist default: - string(s): file(s) with whitelist(s) of cell barcodes. Only –soloType CB UMI Complex allows more than one whitelist file. None no whitelist: all cell barcodes are allowed --soloCBstart default: 1 int>0: cell barcode start base --soloCBlen default: 16 int>0: cell barcode length --soloUMIstart default: 17 int>0: UMI start base --soloUMIlen default: 10 int>0: UMI length --soloBarcodeReadLength default: 1 int: length of the barcode read 1 equal to sum of soloCBlen+soloUMIlen 0 not defined, do not check --soloBarcodeMate default: 0 int: identifies which read mate contains the barcode (CB+UMI) sequence 0 barcode sequence is on separate read, which should always be the last file in the –readFilesIn listed 1 barcode sequence is a part of mate 1 2 barcode sequence is a part of mate 2 --soloCBposition default: - strings(s) position of Cell Barcode(s) on the barcode read. Presently only works with –soloType CB UMI Complex, and barcodes are assumed to be on Read2. Format for each barcode: startAnchor startPosition endAnchor endPosition start(end)Anchor defines the Anchor Base for the CB: 0: read start; 1: read end; 2: adapter start; 3: adapter end start(end)Position is the 0-based position with of the CB start(end) with respect to the Anchor Base String for different barcodes are separated by space. Example: inDrop (Zilionis et al, Nat. Protocols, 2017): –soloCBposition 0 0 2 -1 3 1 3 8 --soloUMIposition default: - string position of the UMI on the barcode read, same as soloCBposition Example: inDrop (Zilionis et al, Nat. Protocols, 2017): –soloCBposition 3 9 3 14 --soloAdapterSequence default: - string: adapter sequence to anchor barcodes. --soloAdapterMismatchesNmax default: 1 int>0: maximum number of mismatches allowed in adapter sequence. --soloCBmatchWLtype default: 1MM multi string: matching the Cell Barcodes to the WhiteList Exact only exact matches allowed 1MM only one match in whitelist with 1 mismatched base allowed. Allowed CBs have to have at least one read with exact match. 1MM multi multiple matches in whitelist with 1 mismatched base allowed, posterior probability calculation is used choose one of the matches. Allowed CBs have to have at least one read with exact match. This option matches best with CellRanger 2.2.0 1MM multi pseudocounts same as 1MM Multi, but pseudocounts of 1 are added to all whitelist barcodes. 1MM multi Nbase pseudocounts same as 1MM multi pseudocounts, multimatching to WL is allowed for CBs with N-bases. This option matches best with CellRanger >= 3.0.0 --soloInputSAMattrBarcodeSeq default: - string(s): when inputting reads from a SAM file (–readsFileType SAM SE/PE), these SAM attributes mark the barcode sequence (in proper order). 58 For instance, for 10X CellRanger or STARsolo BAMs, use –soloInputSAMattrBarcodeSeq CR UR . This parameter is required when running STARsolo with input from SAM. --soloInputSAMattrBarcodeQual default: - string(s): when inputting reads from a SAM file (–readsFileType SAM SE/PE), these SAM attributes mark the barcode qualities (in proper order). For instance, for 10X CellRanger or STARsolo BAMs, use –soloInputSAMattrBarcodeQual CY UY . If this parameter is ’-’ (default), the quality ’H’ will be assigned to all bases. --soloStrand default: Forward string: strandedness of the solo libraries: Unstranded no strand information Forward read strand same as the original RNA molecule Reverse read strand opposite to the original RNA molecule --soloFeatures default: Gene string(s): genomic features for which the UMI counts per Cell Barcode are collected Gene genes: reads match the gene transcript SJ splice junctions: reported in SJ.out.tab GeneFull full genes: count all reads overlapping genes’ exons and introns --soloMultiMappers default: Unique string(s): counting method for reads mapping to multiple genes Unique count only reads that map to unique genes Uniform uniformly distribute multi-genic UMIs to all genes Rescue distribute UMIs proportionally to unique+uniform counts ( first iteartion of EM) PropUnique distribute UMIs proportionally to unique mappers, if present, and uniformly if not. --soloUMIdedup default: 1MM All string(s): type of UMI deduplication (collapsing) algorithm 1MM All all UMIs with 1 mismatch distance to each other are collapsed (i.e. counted once). 1MM Directional UMItools follows the ”directional” method from the UMI-tools by Smith, Heger and Sudbery (Genome Research 2017). 1MM Directional same as 1MM Directional UMItools, but with more stringent criteria for duplicate UMIs Exact only exactly matching UMIs are collapsed. NoDedup no deduplication of UMIs, count all reads. 1MM CR CellRanger2-4 algorithm for 1MM UMI collapsing. --soloUMIfiltering default: - string(s) type of UMI filtering (for reads uniquely mapping to genes) - basic filtering: remove UMIs with N and homopolymers (similar to CellRanger 2.2.0). MultiGeneUMI basic + remove lower-count UMIs that map to more than one gene. MultiGeneUMI All basic + remove all UMIs that map to more than one gene. MultiGeneUMI CR basic + remove lower-count UMIs that map to more than one gene, matching CellRanger > 3.0.0 . 60 Only works with –soloUMIdedup 1MM CR --soloOutFileNames default: Solo.out/ features.tsv barcodes.tsv matrix.mtx string(s) file names for STARsolo output: file name prefix gene names barcode sequences cell feature count matrix --soloCellFilter default: CellRanger2.2 3000 0.99 10 string(s): cell filtering type and parameters None do not output filtered cells TopCells only report top cells by UMI count, followed by the exact number of cells CellRanger2.2 simple filtering of CellRanger 2.2. Can be followed by numbers: number of expected cells, robust maximum percentile for UMI count, maximum to minimum ratio for UMI count The harcoded values are from CellRanger: nExpectedCells=3000; maxPercentile=0.99; maxMinRatio=10 EmptyDrops CR EmptyDrops filtering in CellRanger flavor. Please cite the original EmptyDrops paper: A.T.L Lun et al, Genome Biology, 20, 63 (2019): https://genomebiology.biomedcentral.com/articles/10.1186/s13059- 019-1662-y Can be followed by 10 numeric parameters: nExpectedCells maxPercentile maxMinRatio indMin indMax umiMin umiMinFracMedian candMaxN FDR simN The harcoded values are from CellRanger: 3000 0.99 10 45000 90000 500 0.01 20000 0.01 10000 --soloOutFormatFeaturesGeneField3 default: "Gene Expression" string(s): field 3 in the Gene features.tsv file. If ”-”, then no 3rd field is output. #######STAR MAPPING ####### ####index Generate###### STAR --runMode genomeGenerate --genomeDir sSTAR_index/ --genomeFastaFiles STAR_index/genome.fasta --sjdbGTFfile genome.gtf --sjdbOverhang 149 ##### mapping ########## STAR --runThreadN 8 --genomeDir STAR_index/ --outSAMtype BAM Unsorted SortedByCoordinate _1--quantMode GeneCounts --readFilesCommand zcat --readFilesIn sample_1.clean.fq.gz sample_2.clean.fq.gz --outFileNamePrefix sample_star
維斯威歇線性表示式 汉漢▼▲ 为了阅读方便,本文使用標題手工轉換。 转换标题为:維斯威歇線性表示式 实际标题為:維斯威歇線性表示式;當前顯示為:維斯威歇線性表示式 附加说明(對转换结果有疑问時)顯示↓關閉↑ 字詞轉換是中文维基的一項自動轉換,目的是通過计算机程序自動消除繁简、地区词等不同用字模式的差異,以達到閱讀方便。 字詞轉換包括全局轉換和手動轉換,本說明所使用的标题转换和全文转换技術,都屬於手動轉換。 由于技術所限,字詞轉換有时会不稳定,在刚增加标题转换时,由于缓存原因標題不一定马上显示转换后的正确结果。你可以尝试单击这里进行强制刷新。 元素 (未完成) 碳鏈 (未完成) 比較表 (未完成)
免疫学/补体的激活途径 补体系统 - 补体激活的调节 - 补体受体与补体生物学活性 - 补体系统的异常与疾病 经典途径又称为传统途径、第一途径或C1途径,是最早发现的补体激活途径。该途径主要由抗原-抗体复合物激活,是体液免疫的重要效应机制,主要在初次感染的中晚期发挥作用,是进化中出现最晚的补体激活途径。 免疫复合物(IC)是经典激活途径的主要激活物,其触发C1活化的条件为:                                       C1仅与IgM的CH3区或某些IgG亚类的(IgG1、IgG2、IgG3)的CH2区结合才能活化 游离或可溶性抗体不能激活补体,只有抗原抗体复合物(Fc段发生构象改变)才能触发补体激活。 即C1q识别抗原-抗体复合物,进而激活C1r、C1s,形成有活性的C1酯酶的过程,也称为识别阶段(recognition step)。 即C3转化酶和C5转化酶形成阶段。活化的C1s相继降解C4、C2,形成具有酯酶活性的C3转化酶,C3转化酶进一步降解C3并形成C5转化酶。 即形成攻膜复合物,发挥溶菌和溶细胞效应的阶段,亦称为膜攻击阶段。效应阶段为三条补体激活途径所共有,故称为共同末端通路。 替代激活途径(alternative pathway)又称旁路激活途径、第二途径或C3途径。 主要形成C3转化酶。 即共同末端通路,同补体激活的经典途径。 甘露糖结合凝集素途径(mannose-binding lectin pathway, MBL pathway)的启动起始于感染早期急性期蛋白MBL与病原体表面糖结构的结合。此激活途径对于抵抗早期感染具有重要作用。
生物信息学/featureCounts featureCount是subread套件的一个模块,最大的优点就是速度非常快,使用全部overlap的reads计数,灵活考虑多比对的reads的计数。 subread 软件官网:http://subread.sourceforge.net/ 官方文档:http://bioinf.wehi.edu.au/subread-package/SubreadUsersGuide.pdf conda install -y subread wget -c https://sourceforge.net/projects/subread/files/latest/download -P ~/software/ cd ~/software/ # 解压 mv download subread-1.6.4-source.tar.gz tar zxvf subread-1.6.4-source.tar.gz # 安装 cd subread-1.6.4-source/ make -f Makefile.Linux # 添加系统环境变量 echo 'PATH=$PATH:~/software/TrimGalore-0.6.2/bin' >> ~/.bashrc source ~/.bashrc # 测试 Usage: featureCounts [options] -a <annotation_file> -o <output_file> input_file1 [input_file2] ... featureCounts的选项和参数: # 必须参数: -a <string> 输入GTF/GFF格式的。-F选项提供更多的格式信息。软件安装目录'annotation'中内建的SAF格式的注释文件也可以使用。Gzip压缩的文件也支持 -o <string> read计数结果的输出文件名。额外还有输出结果统计信息,保存在 ('<string>.summary')文件中。所有输出文件都以制表符分隔 input_file1 [input_file2] ... 多个SAM 或 BAM格式输入文件。按照名称或位置排序。如果没有提供输入文件,则应输入<stdin>。 位置排序的双末端read将自动按read名称顺序读取 # 可选参数: ## 注释 -F <string> 指定输入的注释文件的格式。 可接受的格式包括'GTF'/'GFF'/'SAF'。 默认是'GTF' -t <string> 指定GTF注释文件中的feature类型。默认:'exon' 用来计数的feature根据提供的参数从注释文件中提取 -g <string> 指定GTF注释文件中属性的类型。默认:'gene_id' 从注释文件中提取Meta-features信息用于read计数 --extraAttributes 从提供的GTF注释文件文件中提取额外的属性,将他们包含在计数结果中。 这些属性不会用于对特征分组,多个属性值使用逗号分隔 -A <string> 包含注释文件中染色体名和read中染色体名的对应关系的文本文件,该文件是以逗号为分隔符的两列的表格。第一列包含注释文件的染色体名,第二列是reads文件中的染色体名,根据实际情况修改,不要表头 ## summarization的水平 -f 在feature水平计数 (如对外显子计数) ## read和features的overlap -O 统计所有重叠的的meta-features的reads (或-f参数指定的feature) --minOverlap <int> 最小重叠(overlapping)碱基数,默认: 1。 双末端read的重叠碱基数是两个read重叠碱基的总数。如果该值为负,允许read和feature之间存在该值绝对值长度的gap --fracOverlap <float> read最小的重叠分值。该值在[0,1]区间内,默认: 0 对于双末端序列重叠碱基数为一对read的重叠碱基数之和。 该选项和 '--minOverlap' 选项都必须满足read分布 --fracOverlapFeature <float> 根据feature统计的read重叠碱基的最小分值, 该值在[0,1]之间, 默认:0 --largestOverlap 计算meta-feature/feature的read重叠碱基的最大值。 --nonOverlap <int> 根据feature计算的非read(read pair)重叠的最大值。 默认无限制 --nonOverlapFeature <int> 用于read评估的feature中非overlap的重叠碱基最大数 默认无限制 --readExtension5 <int> Read向 5'端上游扩展 <int> 个碱基 --readExtension3 <int> Read向 3'端上游扩展 <int> 个碱基 --read2pos <5:3> 减少read 5'端或 3'端的大多数碱基。 通过read减少的单碱基进行计数 ## 多mapping read -M 对所有多比对read进行计数。通过BAM/SAM格式文件中 'NH' 标签来检测是否是多比对read ## 计数分数 --fraction feature统计的计数分数。该选项必须和 '-M' 或 '-O' 或both一起使用。 和 '-M' 一起使用时, 多比对(通过'NH'标签来确定)的报告中会计算记一个计数分值1/x, 来代替1 (one), x是比对报告中相同read的总数 和 '-O' 一起使用时, 每个重叠的feature都有一个计数分值1/y, y是read重叠的features总数 和'-M' 和 '-O' 一起使用时, 每个比对都会得到计数分值1/(x*y) ## Read过滤 -Q <int> 比对上的read满足最小质量值才被计数。 对于双末端read,至少有一个read满足标准。默认:0 --splitOnly 只对split比对计数(如,比对结果中CIGAR字符串中包含'N')。 RNA-seq数据的exon-spanning read 就是split比对的一个实例。 --nonSplitOnly 对非split比对计数(比对结果中CIGAR字符串中不包含'N')。 其他比对结果会被忽略。 --primary 只统计主要比对结果。通过BAM/SAM格式中FLAG列中包含 Ox100 二进制标识符来确定 --ignoreDup 忽略duplicate reads计数。Duplicate reads通过BAM/SAM格式中FLAG列中包含 Ox400 二进制标识符来确定。如果双末端read的一个是duplicate read,则该read-pair被忽略 ## Strandness -s <int or string> 执行链特异性read计数。单个整数(应用于所有输入)或以逗号分隔的字符串(应用于对应的输入文件),数量要与输入文件一致。可能的取值包括: 0 (unstranded), 1 (stranded), 2 (reversely stranded)。默认:0 (针对所有输入文件进行非链特异read计数) ## Exon-exon junctions -J 支持exon-exon junction的read计数。Junctions是从输入中的 exon-spanning eads产生(CIGAR字符串的 'N' )。 储存计数结果的文件名: '<output_file>.jcounts' -G <string> 提供生成SAM/BAM格式文件的FASTA格式的参考序列。 该选项和'-J'结合提高junctions的read计数 ## 双末端read参数 -p 设置此参数后,使用fragments (或 templates)代替 reads计数。只对paired-end reads有效 -B 只对都比对上的read pairs计数 -P 检查paired-end距离使用 -d 和 -D 来设置阈值 -d <int> 最小fragment/template长度,默认:50 -D <int> 最大fragment/template长度,默认:600 -C 对于比对到不同染色体或相同染色体的不同链的read对, 不进行计数 --donotsort 不对输入BAM/SAM文件的reads排序。请注意,来自同一对的read必须在输入中彼此相邻 # CPU线程数 -T <int> 使用的线程数。默认1 # Read分组 --byReadGroup 通过read group计数。 "RG" 标签必须要存在输入的BAM/SAM 文件中。 # 长read -L 对Nanopore 和 PacBio 的长reads计数。长read计数只能使用单核,只能对reads (不能是read-pairs)计数。此参数对长read计数的CIGAR字符串中'M'的数量无限制 # 每个read的Assignment结果 -R <format> 输出每个read或read-pair的详细分析结果。 结果保存到以下格式之一的文件中:CORE,SAM和BAM。 --Rpath <string> 指定目录以保存详细的分析结果。 如果未指定,则使用保存计数结果的目录。 # 其他参数 --tmpDir <string> 保存运行过程中结果的文件夹(运行完成后删除)。默认保存在 '-o' 选项的参数设置的路径中。 --maxMOp <int> CIGAR字符串中'M'操作符的最大值。默认:10。CIGAR字符串中,'X' 和 '=' 被当作 'M',临近的 'M' 操作被合并 --verbose 输出debugging的信息, 未匹配的chromosome/contig name -v 输出程序版本 # 每次使用生信软件分析前,注意要激活创建的小环境rna conda activate rna # 将5.mapping目录下的bam文件链接到6.featureCounts ln -s ~/5.mapping/*.bam ~/6.featureCounts/ ### 运行featureCounts计数 featureCounts -T 5 -p -t exon -g gene_id -a /teach/database/gtf/gencode.v25.annotation.gtf.gz -o ~/6.featureCounts/all.id.txt *sort.bam # 简化结果,去除特征列,只保留基因计数的列 cat all.id.txt | cut -f1,7- > counts.txt all.id.txt文件的表达矩阵: # Program:featureCounts v1.6.4; Command:"featureCounts" "-T" "5" "-p" "-t" "exon" "-g" "gene_id" "-a" "/teach/database/gt Geneid Chr Start End Strand Length SRR1039510.sort.bam SRR1039511.sort.bam SRR1039512.sort.bam ENSG00000278267.1 chr1 17369 17436 - 68 0 0 0 ENSG00000268020.3 chr1 52473 53312 + 840 0 0 0 ENSG00000240361.1 chr1 62948 63887 + 940 0 0 0 ENSG00000186092.4 chr1 69091 70008 + 918 0 0 0 从左到右依次: Geneid:基因的ensemble基因号; Chr:多个外显子所在的染色体编号; Start:多个外显子起始位点,与前面一一对应 End:多个外显子终止位点,与前面一一对应 Strand:正负链 Length:基因长度 sampleID:一列代表一个样本,数值表示比对到该基因上的read数目
初中物理/磁体与磁场 具有吸引铁、钴、镍等物质的的性质叫做磁性。具有磁性的物质叫做磁体。磁体上磁性最强的部分叫做磁极,任何磁体都有两个磁极(N极与S 极)。磁体间吸引或排斥的力叫做磁力。磁体间的相互作用规律为:同名磁极相互排斥,异名磁极相互吸引。 当条形磁体靠近铁棒时,铁棒获得了磁性。这种使原来没有磁性的物体得到磁性的过程叫做磁化。磁体移开后,铁棒的磁性立即消失,无法长期保持。像铁棒这样的磁体称作软磁体。而钢棒被磁化后,磁性可以长期保持,则称作硬磁体或永磁体。 使原来有磁性的物体失去磁性的过程叫做去磁。常用的方法有高温加热等。 磁体周围存在磁场,磁体对放入其磁场的物体有力的作用。磁感线模型可以形象地描述磁体周围的磁场分布。磁场的强弱和方向可以用磁感应强度表示,符号: B {\displaystyle B} ,国际通用单位为特斯拉,符号: T {\displaystyle \mathrm {T} } 。磁感应强度是矢量。
MySQL/Stored Programs MySQL使用一个字符作为SQL语句之间的分隔符。缺省是 ';'。当创建一个存储过程时,过程体内部使用';'分隔了多条语句。这时不希望MySql理解 ';'是CREATE语句的结束标志,这就需要给出其他的分隔符。 例如,指定 '|'为分隔符: delimiter | CREATE EVENT myevent ON SCHEDULE EVERY 1 DAY DO BEGIN TRUNCATE `my_db`.`my_table`; TRUNCATE `my_db`.`another_table`; END | delimiter ; 关键字: IF, CASE, ITERATE, LEAVE LOOP, WHILE, REPEAT. WHILE循环 [ label: ] WHILE expression DO statements END WHILE [ label ]  ; DELIMITER $$ CREATE PROCEDURE counter() BEGIN DECLARE x INT; SET x = 1; WHILE x <= 5 DO SET x = x + 1; END WHILE; SELECT x; -- 6 END$$ DELIMITER ; LOOP循环 [ label: ] LOOP statements END LOOP [ label ] ; DELIMITER $$ CREATE PROCEDURE counter2() BEGIN DECLARE x INT; SET x = 1; boucle1: LOOP SET x = x + 1; IF x > 5 THEN LEAVE boucle1; END IF; END LOOP boucle1; SELECT x; -- 6 END$$ DELIMITER ; REPEAT UNTIL循环: [ label: ] REPEAT statements UNTIL expression END REPEAT [ label ]  ; DELIMITER $$ CREATE PROCEDURE counter3() BEGIN DECLARE x INT; SET x = 1; REPEAT SET x = x + 1; UNTIL x > 5 END REPEAT; SELECT x; -- 6 END$$ DELIMITER ; handler声明,对一种错误提出处置: DECLARE CONTINUE HANDLER FOR SQLEXCEPTION Moreover, the error type can be indicated: DECLARE CONTINUE HANDLER FOR SQLSTATE [VALUE] sqlstate_value DECLARE CONTINUE HANDLER FOR SQLWARNING DECLARE CONTINUE HANDLER FOR NOT FOUND 存储过程是用SQL(以及一些过程式扩展)来编写。使用CALL命令调用存储过程。 存储过程如果返回一个结果,叫做FUNCTION;否则叫做PROCEDURE。 降低网络交通:只需要发出一条语句。存储过程里面可能有很多条语句。 保持数据库里面的逻辑 是可重用的模块 可以修改存储过程而不必改变应用程序 存储过程的调用者不需要有表的读写权限 调用存储过程比执行一条SQL语句更快 CREATE DEFINER = `root`@`localhost` PROCEDURE `Module1` ( ) NOT DETERMINISTIC NO SQL SQL SECURITY DEFINER OPTIMIZE TABLE wiki1_page; CALL `Module1` (); DROP PROCEDURE `Module1` ; DROP PROCEDURE `Module1` ; CREATE DEFINER = `root`@`localhost` PROCEDURE `Module1` ( ) NOT DETERMINISTIC NO SQL SQL SECURITY DEFINER BEGIN OPTIMIZE TABLE wiki1_page; OPTIMIZE TABLE wiki1_user; END SHOW PROCEDURE STATUS; SHOW CREATE PROCEDURE Module1; 虚拟数据库INFORMATION_SCHEMA有一张表叫做`ROUTINES` 该表包含所有存储函数的值. http://dev.mysql.com/doc/refman/5.0/en/flow-control-statements.html http://dev.mysql.com/doc/refman/5.7/en/declare-handler.html
免疫学/抗体(Antibody) 免疫球蛋白的分子结构 - 免疫球蛋白的免疫原性 - 抗体的生物活性 - 五类免疫球蛋白的特点与功能 - 人工制备的抗体 抗体(Antibody, Ab)是B细胞识别抗原后,活化增殖分化为浆细胞所分泌的一种糖蛋白。能与相应的抗原结合, 是介导体液免疫的重要的效应分子。 免疫球蛋白(Immunoglobulin, Ig)主要存在于生物体血液和其他体液(包括组织液和外分泌液)中的糖蛋白,由浆细胞分泌,具有抗体活性可特异性与抗原结合、或化学结构与抗体相似的球蛋白。Ig包括IgA, IgD, IgE, IgG, and IgM五类。 所有的抗体都是Ig,但是有些免疫球蛋白并没有抗体的功能。
工程材料/防锈铝合金 防锈铝合金中主要合金元素是锰和镁。锰提高抗蚀能力,并起固溶强化作用。镁固溶强化,同时降低密度。 防锈铝合金锻造退火后是单相固溶体,抗蚀性能高,塑性好。不能进行时效硬化,属于不可热处理强化的铝合金,但可冷变形,利用加工硬化提高强度。 防锈铝合金的牌号 防锈铝合金的牌号前的字母为“LF”是铝防的汉语拼音声母。 常用防锈铝合金 LF21—— Al-Mn系合金;LF5、LF11 —— Al-Mg系合金,适用于制造油箱油管铆钉及其它冷变形部件。
生物信息学/salmon Salmon可以快速从fastq快速得到基因表达 Patro R , Duggal G , Love M I , et al. Salmon provides fast and bias-aware quantification of transcript expression[J]. Nature Methods, 2017, 14(4):417-419. conda install -y salmon $ salmon Usage: salmon -h|--help or salmon -v|--version or salmon -c|--cite or salmon [--no-version-check] <COMMAND> [-h | options] Commands: index 构建salmon index quant 对一个样本进行定量 alevin 单细胞分析 swim 软件开发者命令 quantmerge 将多个定量文件合并成单个文件 首先构建cDNA序列的索引,salmon index构建索引的参数: -v [ --version ] 打印版本号 -h [ --help ] 打印帮助信息 -t [ --transcripts ] arg 转录本fasta文件 -k [ --kmerLen ] arg (=31) quasi索引的kmers大小 -i [ --index ] arg salmon index -p [ --threads ] arg (=2) 计算bias特征时使用的线程数 --perfectHash [quasi index only] 使用perfect hash(而非dense hash)构建index 对内存需求小(尤其定量时), 但需要更长的时间来构建index -d [ --decoys ] arg 将这些序列是为一些已知转录本的同源序列 --type arg (=quasi) 构建index的类型; 该版本下的参数只有 "quasi" salmon quant包括两种定量模式 --- 使用原始FastQ格式的read和比对后的BAM/SAM格式read,如果设置-a [ --alignments ]参数,salmon quant执行基于比对的定量模式,不设置则执行原始read的定量模式。使用salmon quant --help-reads命令查看quasi-mapping-based模式的帮助文档,使用salmon quant --help-alignment命令查看alignment-based模式定量的帮助文档。 salmon Quasi-mapping模式的参数: ## mapping 输入选项: -l [ --libType ] arg 描述文库类型的字符串,A代表自动搜索 -i [ --index ] arg salmon index -r [ --unmatedReads ] arg 非mate文库,如单末端测序 -1 [ --mates1 ] arg 双末端1 mates -2 [ --mates2 ] arg 双末端2 mates ## Quasi-mapping 模式选项,以下参数只支持Quasi-mapping模式: --discardOrphansQuasi [只支持Quasi-mapping模式] :quasi-mapping模式下,只有双末端的两个read都比对上的read对用于表达量评估。如果没有检测到双末端序列,则对单个read进行计数,使用 --writeOrphanLinksThis 可以将双末端只有一个read比对上的转录本计数结果输出到文件中。 --validateMappings [Quasi-mapping模式] :使用比对来验证Quasi-mapping,保证结果合理。 --consensusSlack arg (=0) [Quasi-mapping模式] : The amount of slack allowed in the quasi-mapping consensus mechanism. 一般情况下,一个转录本所有的hits都被认为是mapping,如果设置成分数X,区间在[0,1)之间,表示一个transcript有(100 * X)%的hits没有mapping,使用 --validateMappings 选项时,该选项的默认值是0.2,0表示所有hits都是mapping。 --minScoreFraction arg [Quasi-mapping模式 (w / mapping validation)] : 达到 "valid" 的最小比对分数,区间为(0,1]。Salmon默认0.65,Alevin模式下默认0.87。 --maxMMPExtension arg (=7) [Quasi-mapping模式 (w / mapping validation) ] : 设置最大的MMP值,防止出现过大的MMSP(maximum mappable safe prefix),该值越小越敏感,但会降低mapping的速度。 --ma arg (=2) [Quasi-mapping mode (w / mapping validation) ] : read比对到参考序列的match值。 --mp arg (=-4) [Quasi-mapping mode (w / mapping validation) only] : read比对到参考序列的mis-match值。 --go arg (=4) [Quasi-mapping mode (w / mapping validation) only] : 比对中允许gap数。 --ge arg (=2) [Quasi-mapping mode (w / mapping validation) only] : 比对中gap延伸数。 --bandwidth arg (=15) [Quasi-mapping mode (w / mapping validation) only] : 传递给ksw2的bandwidth的值,bandwidth值越小,比对验证的越快,也有可能会错过有效的比对 --allowDovetail [Quasi-mapping mode] : 允许dovetailing mapping。 --recoverOrphans [Quasi-mapping mode] : 尝试使用edlib修复mate文库的只比对上一个的orphan read,增加了计算时间,提高了敏感性。 --mimicBT2 [Quasi-mapping mode (w / mapping validation)] : 类似于Bowtie2的 --no-discordant 和 --no-mixed 选项,不允许dovetailing reads并去除orphans read。和RSEM+Bowtie2的模式下的更严格筛选参数不同,如无gap比对参数,详见 --mimiStrictBT2 选项。 --mimicStrictBT2 [Quasi-mapping mode (w / mapping validation)] : 设置用于RSEM+Bowtie2的严格过滤参数, --minScoreFraction会被提高到0.8,比对中不允许dovetailing read和gap,并去除未配对read。 --hardFilter [Quasi-mapping模式 (w / mapping validation)] : 不考虑次优的比对结果,默认是根据比对打分进行soft-filtering,如果想要得到更精确的丰度评估结果,而非一个区间值,需要设置此参数。 --allowOrphansFMD [FMD-mapping模式] : 执行轻量级比对时,将未配对的read视为有效的hits。该选项能提高软件的敏感性(比对上更多的read、检测到更多的转录本),可能会降低准确性,未配对的比对可能是不正确的。 -z [ --writeMappings ] [=arg(=-)] 将quasi-mapping的结果写入到SAM格式中,默认情况下,结果会直接输出到屏幕上,可以自定义输出文件名。 -c [ --consistentHits ] quasi-mapping下,强制将hits聚集(如共线性和) gathered during quasi-mapping to be "consistent" (i.e. co-linear and approximately the right distance apart). --fasterMapping [Developer]: 关闭quasi-mapping的额外检查。会加快mapping的速度,但可能会为某些read返回过多的映射(一些次优的mapping)。 -x [ --quasiCoverage ] arg (=0) [实验]: 被MMP(长度大于31)覆盖到的read分值,read “mapped”的阈值。帮助避免"spurious"比对。默认值0表述不设置覆盖阈值,精确match的覆盖度,较大MMP是一个严格条件,使用时设置为较小的值。 salmon alignment模式的参数: ## alignment输入选项: --discardOrphans [Alignment-based模式] : 只对成对的比对进行表达量评估,默认:如果没有成对的mapping存在,则统计不成对的比对。 -l [ --libType ] arg 描述文库类型的字符串,A代表自动搜索 -a [ --alignments ] arg 指定输入为BAM格式文件 -t [ --targets ] arg 用于定量的FASTA格式的转录本序列文件 ## alignment模式选项,只支持alignment模式: --noErrorModel 关闭alignment误差模型,该模型会统计比对中不同mismatch/indel类型的频率。启用该选项可加速alignment模式下salmon的运行,可能会降低定量的准确性。 --numErrorBins arg (=6) 应用error模型时,将每个read分成的区间数。例如,10表示error模型将read分成10个区段进行高效处理,3表示将read分成read起始三分之一,中间三分之一,最后三分之一进行处理。 -s [ --sampleOut ] 根据统计的转录本丰度对比对结果进行抽样,并写入"postSample.bam"。该选项会过滤掉一些有歧义的片段。 -u [ --sampleUnaligned ] 对比对的read进行额外的抽样,将未比对的read写入"postSample.bam"。 --gencode 指定输入格式为GENCODE,转录本名称通过第一个 '|' 字符提取,这些名称用于输出,以及在GTF文件的基因中,搜索这些转录本。 --mappingCacheMemoryLimit arg (=2000000) 如果文件中包含的read数低于此值,则会将文件中所有数据读入内存中用于计算。如果不想消耗过多内存,该值不要设置过大。对于只有几百万的read文件,可以将该值设置为文件read数,可以加快软件的运行速度。 salmon quant的选项,两种模式下的通用选项 # salmon quant选项: ## 基础选项: -v [ --version ] 打印版本信息 -h [ --help ] 打印帮助信息 -o [ --output ] arg 输出结果文件夹 --seqBias 执行序列偏好性校正 --gcBias 执行fragment GC偏好校正(单末端read的测序版) -p [ --threads ] arg (=8) 使用的线程数 --incompatPrior arg (=0) 特定文库类型(--libType)下,比对结果与实际fragment来源不同的先验概率,设置为0表示比对结果与实际文库相同,不存在比对错误的情况,设置为1表示比对结果与文库类型完全不对应 -g [ --geneMap ] arg 基因和转录本的对应关系。使用该选项,salmon在结果中提供quant.sf和quant.genes.sf文件,quant.genes.sf文件中包含了gene水平的丰度评估结果。输入文件可以是GTF或制表符分隔的文件(每行包含一个transcript和gene的对应关系,以制表符分隔),文件的扩展名用于判断文件的处理方式。以'.gtf', '.gff'或 '.gff3'按照GTF格式处理;其他扩展名的文件都被当作制表符分隔文本文件处理。GTF/GFF格式中, "transcript_id" 包含transcript名,"gene_id"包含对应的gene名。 --meta 如果使用Salmon分析metagenomic数据集,可以考虑设置此参数,禁用对metagenomic数据意义不大的分析。 ## 高级选项: --alternativeInitMode [实验]: 使用其他可选策略(不同于简单插入法)初始化EM/VBEM程序,用于online和归一化丰度的评估。 --auxDir arg (=aux_info) 输出结果的子文件夹中输出辅助信息如 bootstraps, bias parameters等。 --skipQuant 跳过transcript定量(包括Gibbs抽样或bootstrap)。 --dumpEq quasi-mapping下统计equivalence class的数目。 -d [ --dumpEqWeights ] 在输出的文件中,包含更丰富的equivalence class 权重信息。 --minAssignedFrags arg (=10) 用于转录组定量的最小fragment数。 --reduceGCMemory 降低用于计算片段GC含量的内存数,但会降低运行速度,结果不变。 --biasSpeedSamp arg (=5) 评估序列特异和GC fragment bias时,fragment长度PMF下采样的值。值越大,有效长度校正速度越快,但会降低bias模型的可靠性。 --fldMax arg (=1000) 用于计算经验分布的最大fragment长度。 --fldMean arg (=250) 用于计算fragment长度分布的平均值 --fldSD arg (=25) fragment长度分布的标准偏差 -f [ --forgettingFactor ] arg (=0.65000000000000002) online学习策略下遗忘因子。值越小,学习速度越快,但不稳定,会产生更高的方差。较大的值会减慢学习的速度,但结果更稳定,该值的区间为(0.5, 1.0]。 --initUniform offline推断前,初始化使用的归一化参数。 -w [ --maxReadOcc ] arg (=200) 比对上的区域数超过此值的read不用于计算。 --noLengthCorrection [experimental] : 在进行转录本丰度评估时,禁用长度校正,该选项用于不需要考虑目标片段长度的测序技术,如QuantSeq。 --noEffectiveLengthCorrection 在计算片段是否来自转录本时,关闭有效长度校正,设置该参数后,不在考虑fragment长度分布。 --noFragLengthDist [experimental] : 在判断某个fragment是否来源于特定位置时,不考虑fragment的长度分布。fragment长度观测值对fragment的鲜艳概率没有影响。 --noBiasLengthThreshold [experimental] : 不设置bias校正有效长度的最小阈值,会提高bias校正的正确性,但会降低鲁棒性。默认会执行有阈值的校正。 --numBiasSamples arg (=2000000) 构建序列特异bias模型时使用的fragment数。 --numAuxModelSamples arg (=5000000) 用于auxiliary模型参数训练的样本数(如片段长度分布,bias等),第一次训练后,这些模型参数收敛并固定。 --numPreAuxModelSamples arg (=5000) 在不使用上个选项提供的auxiliary模型参数的情况下,评估分配的可能性和对转录本丰度计算的贡献。该选项的目的是:在确定auxiliary模型参数被充分训练之前,避免使用该模型。 --useEM 使用常规EM程序优化批处理过程。 --useVBOpt 使用Variational Bayesian EM[默认] --rangeFactorizationBins arg (=0) 基于不同转录本fragment的条件概率,使用新的equivalence class,将定量过程中的可能性分解为区间。默认值0对应标准富集,值越大,分解的区间会更多更细。如果启用此参数,该参数值为4。 --numGibbsSamples arg (=0) Gibbs抽样执行的次数。 --noGammaDraw Gibbs抽样时,该参数会关闭的Gamma分布的统计transcript分数的操作。取样不考虑shot-noise,只考虑assignment ambiguity。 --numBootstraps arg (=0) bootstrap样本数,与Gibbs抽样互斥。 --bootstrapReproject 从每个样本的bootstrap计数中学习参数分布,但会将这些学习的参数重新用原始equivalence class计数。 --thinningFactor arg (=16) Gibbs链中每个样本丢弃的步骤数,该数字越大,后续样本相关的计划越小,但会减慢取样速度。 -q [ --quiet ] 不打印提示信息,除非软件运行出错 --perTranscriptPrior transcript水平的prior (使用默认或--vbPrior,每个transcript都会有prior值的read) --sigDigits arg (=3) 输出EffectiveLength和NumReads列时要写入的有效位数 --vbPrior arg (=1.0000000000000001e-05) VBEM程序中使用的prior值,用于per-nucleotide prior,如果设置--perTranscriptPrior选项,该值则用于transcript水平 prior值 --writeOrphanLinks 输出双末端中只有一个read支持的transcript。 --writeUnmappedNames 在auxiliary文件中输出unmapped_names.txt,其中是未map的read的统计信息。 Alevin - Salmon 1.5.2 documentation alevin选项: mapping输入参数: -l [ --libType ] arg 指定文库类型 -i [ --index ] arg salmon index -r [ --unmatedReads ] arg 非mate文库read(单末端read) -1 [ --mates1 ] arg 包含 #1 mates 的文件 -2 [ --mates2 ] arg 包括 #2 mates 的文件 alevin-specific Options: -v [ --version ] 打印版本信息 -h [ --help ] 打印帮助信息 -o [ --output ] arg 指定定量输出结果储存的文件夹 -p [ --threads ] arg (=2) 使用的线程数 --tgMap arg tsv格式的转录本和基因的对应关系 --hash arg Alevin使用Big freaking Hash (bfh.txt)文件作为二级输入。必须与 --chromium选项一起使用 --dropseq 处理DropSeq单细胞文库 --chromiumV3 处理10x chromium v3单细胞文库 --chromium 处理10x chromium v2单细胞文库 --gemcode 处理0x gemcode v1单细胞文库 --celseq 处理CEL-Seq单细胞文库 --celseq2 处理CEL-Seq2单细胞文库 --whitelist arg 包含white-list barcodes的文件 --noQuant 不运行下游的barcode-salmon模型 --numCellBootstraps arg (=0) 计算cell x基因矩阵定量的平均值和方差 --forceCells arg (=0) 指定细胞的数目 --expectCells arg (=0) 定义细胞的期望数目 --mrna arg 线粒体RNA基因文件的路径,每行一个 --rrna arg 核糖体RNA文件的路径,每个一行 --keepCBFraction arg (=0) CB保留的分值,范围在(0,1], 用 1 定量所有CB --dumpfq 多比对使用coin toss,为下游分析, 保留barcode修正后的fastq 文件 --dumpBfh 保留所有barcode和UMI序列的big hash --dumpUmiGraph 保留细胞水平的UmiGraph --dumpFeatures 保留whitelist和下游分析 --dumpMtx 以mtx格式保存cell v转录本计数矩阵 --lowRegionMinNumBarcodes arg (=200) CB最小值作为学习的最低执行区域 (Default: 200) --maxNumBarcodes arg (=100000) 处理细胞barcode的最大值 (Default: 100000) salmon quantmerge 选项: 基础选项: -v [ --version ] 打印版本号 -h [ --help ] 打印帮助信息 --quants arg 列出定量文件夹 --names arg 可选的样本名 -c [ --column ] arg (=TPM) 需要合并的列名, 可选参数:{len, elen, tpm, numreads} --genes 使用基因定量代替转录本定量 --missing arg (=NA) NA代替缺失值The value of missing values. -o [ --output ] arg 输出定量文件 salmon quant -i hg38_salmon -l A -1 ${i}_1_val_1.fq.gz -2 ${i}_2_val_2.fq.gz -p 5 -o ${i}_quant quant.sf结果文件: Name Length EffectiveLength TPM NumReads ENST00000631435.1 12 13.000 0.000000 0.000 ENST00000434970.2 9 10.000 0.000000 0.000 ENST00000448914.1 13 14.000 0.000000 0.000 ENST00000415118.1 8 9.000 0.000000 0.000 ENST00000604446.1 23 24.000 0.000000 0.000 各列含义解析: Name:target transcript 名称,由输入的 transcript database (FASTA file)所提供。 Length:target transcript 长度,即有多少个核苷酸。 EffectiveLength:target transcript 计算的有效长度。此项考虑了所有建模的因素,这将影响从这个转录本中取样片段的概率,包括片段长度分布和序列特异性和gc片段偏好 TPM:估计转录本的表达量 NumReads:估计比对到每个转录本的reads数。 Salmon输出其他文件: cmd_info.json: JSON格式文件,记录salmon程序运行的命令和参数 lib_format_counts.json: Observed library format counts。当运行salmon是 mapping-based mode时,则 会生成改文件。 JSON格式文件,记录有关文库格式和reads比对的情况。 eq_classes.txt: Equivalence class file。当Salmon运行时,应用参数--dumpEq,则会生成此文件。 aux_info: 辅助文件夹,内含多个文件 fld.gz:在辅助文件夹中,该文件记录的是观察到的片段长度分布的近似值 observed_bias_3p.gz: Sequence-specific bias files expected_gc.gz, observed_gc.gz: 当Salmon运行时,应用fragment-GC bias correction,在辅助文件夹中则会生成这两个文件。记录Fragment-GC bias。 meta_info.json: JSON格式文件,记录salmon程序运行的统计信息 ambig_info.tsv: tab分隔符的文本文件,含有两列。记录的是每个转录本对应的唯一mapping的read数和模糊mapping的read总数
雙碼注音輸入法/老殘遊記第一回《節錄》 話(hx4)說(oo1)山(ok1)東(dl1)登(df1)州(ar1)府(fu3)東(dl1)門(md2)外(uh4) 有(ir3)一(i1)座(zo4)大(da4)山(ok1),(,)名(mg1)叫(jn4)蓬(pf2)萊(lh2) 山(ok1)。(.)山(ok1)上(oj4)有(ir3)個(ge5)閣(ge2)子(z5),(,)名(mg2) 叫(jn4)蓬(pf2)萊(lh2)閣(ge2)。(.)這(ae4)閣(ge2)造(zs4)得(de2)畫(hx4) 棟(dl4)飛(fw1)雲(yd2),(,)珠(au1)簾(lm2)捲(jt3)雨(y3),(,)十(o2) 分(fd1)壯(ac3)麗(li4)。(.)西(xi1)面(mm4)看(kk4)城(vf2)中(al1)人(rd2) 戶(hu4),(,)煙(ik1)雨(y3)萬(uk4)家(jx1);(;)東(dl1)面(mm4)看(kk4) 海(hh3)上(oj4)波(bo1)濤(ts1),(,)崢(af1)嶸(rl2)千(qm1)里(li3)。(.) 所(so3)以(i3)城(vf2)中(al1)人(rd2)士(o4)往(uj3)往(uj3)於(y2)下(xx4) 午(u3)攜(xi1)尊(zz1)挈(qp4)酒(jb3),(,)在(zh4)閣(ge2)中(al1)住(au4) 宿(su4),(,)準(az3)備(bw4)次(c4)日(r4)天(tm1)來(lh2)明(mg2)時(o2) ,(,)看(kk4)海(hh3)中(al1)出(vu1)日(r4)。(.)習(xi2)以(i2)為(uw2) 常(vj2),(,)這(ae4)且(qp3)不(bu4)表(bn3)。(.)
MySQL/Language/User Variables 局部变量(不以@为前缀)是强类型的,并且被限定在被声明的存储的程序块中。局部变量不能在函数或存储过程之外访问。. 举例: DECLARE MyVariable1 INT DEFAULT 1; Session变量(以@为前缀)是松散键入并限定在会话中。变量名对大小写不敏感。既不需要也不能被声明,只需直接使用它们即可。 执行SET语句使用=或:=来赋值: SET @var_name = expr [, @var_name = expr] ... expr可以为整数、实数、字符串或者NULL值。需要以括号括起查询,以便将其作为子查询执行: SET @countTotal = (SELECT COUNT(*) FROM nGrams); 可以使用SELECT ... INTO: SELECT COUNT(*) INTO @countTotal FROM nGrams; SET @id = 0, @name = ''; SELECT id, name INTO @id, @name FROM table1 limit 1; SELECT @id, @name; 也可以用语句代替SET来为用户变量分配一个值。在这种情况下,分配符必须为:=而不能用=,因为在非SET语句中=被视为一个比较 操作符。 mysql> SET @t1=0, @t2=0, @t3=0; mysql> SELECT @t1:=(@t2:=1)+@t3:=4,@t1,@t2,@t3; +----------------------+------+------+------+ | @t1:=(@t2:=1)+@t3:=4 | @t1 | @t2 | @t3 | +----------------------+------+------+------+ | 5 | 5 | 1 | 4 | +----------------------+------+------+------+ 没有初始化的变量,其值是NULL。 在SELECT语句中,表达式发送到客户端后才进行计算。这说明在HAVING、GROUP BY或者ORDER BY子句中,不能使用包含SELECT列表中所设的变量的表达式。 一般原则是不要在语句的一个部分为用户变量分配一个值而在同一语句的其它部分使用该变量。可能会得到期望的结果,但不能保证。 select @test := 2; select @test + 1; -- returns 3 set @startdate='some_start_date', @enddate='some_end_date' SELECT @toremember:=count(*) FROM membros; select @numzero := count(*) from table1 where field=0; select @numdistinct := count(distinct field) from table1 where field <> 0 ; select @numzero @numdistinct; 设置一个GLOBAL变量的值,使用下面的语法: mysql> SET GLOBAL sort_buffer_size=value; mysql> SET @@global.sort_buffer_size=value; 要想设置一个SESSION变量的值,使用下面的语法: mysql> SET SESSION sort_buffer_size=value; mysql> SET @@session.sort_buffer_size=value; mysql> SET sort_buffer_size=value; LOCAL是SESSION的同义词。 要想检索一个GLOBAL变量的值,使用下面的语法: mysql> SELECT @@global.sort_buffer_size; mysql> SHOW GLOBAL VARIABLES like 'sort_buffer_size'; 要想检索一个SESSION变量的值,使用下面的语法: mysql> SELECT @@sort_buffer_size; mysql> SELECT @@session.sort_buffer_size; mysql> SHOW SESSION VARIABLES like 'sort_buffer_size'; 这里,LOCAL也是SESSION的同义词。 用SELECT @@var_name搜索一个变量时(也就是说,不指定global.、session.或者local.),MySQL返回SESSION值(如果存在),否则返回GLOBAL值。 对于SHOW VARIABLES,如果不指定GLOBAL、SESSION或者LOCAL,MySQL返回SESSION值。 当设置GLOBAL变量需要GLOBAL关键字但检索时不需要它们的原因是防止将来出现问题。如果我们移除一个与某个GLOBAL变量具有相同名字的SESSION变量,具有SUPER权限的客户可能会意外地更改GLOBAL变量而不是它自己的连接的SESSION变量。如果我们添加一个与某个GLOBAL变量具有相同名字的SESSION变量,想更改GLOBAL变量的客户可能会发现只有自己的SESSION变量被更改了。 http://stackoverflow.com/questions/1009954/mysql-variable-vs-variable-whats-the-difference http://dev.mysql.com/doc/refman/5.7/en/declare-local-variable.html